Feed RSS Reader

🔒
❌ Gestione sottoscrizioni⤓
Sono disponibili nuovi articoli, clicca qui per caricarli.
Meno recentiRSS feeds

ThisPersonDoesNotExist: generatore automatico di volti realistici

di Vito Gentile
ThisPersondoesNotExist è una piattaforma in grado di generare autonomamente volti realistici che non appartengono ad esseri umani realmente esistenti. Leggi ThisPersonDoesNotExist: generatore automatico di volti realistici

ThisPersonDoesNotExist: generatore automatico di volti realistici

di Vito Gentile

ThisPersondoesNotExist è una piattaforma in grado di generare autonomamente volti realistici che non appartengono ad esseri umani realmente esistenti.

Leggi ThisPersonDoesNotExist: generatore automatico di volti realistici

Processori in diamante grazie al machine learning?

di Marco Locatelli

Come sanno bene gli scienziati, è possibile modificare drasticamente le proprietà di un materiale cristallino applicando un po’ di tensione, ma trovare la tensione perfetta è tutta un’altra storia. E se ci pensa l‘intelligenza artificiale?

Leggi il resto dell’articolo

Google spinge sui propri chip, assumendo nuovi ingegneri in India

di Thomas De Faveri

Google assume ingegneri in India per il proprio team di sviluppo di chip: 20 nuovi assunti negli ultimi mesi, con tante posizioni ancora aperte.

L'articolo Google spinge sui propri chip, assumendo nuovi ingegneri in India proviene da TuttoAndroid.

Python: non solo Web development

di Claudio Davide Ferrara
Da un sondaggio della Python Foundation e di JetBrains emerge come l'uso di Python sia sempre più diffuso presso gli sviluppatori. Leggi Python: non solo Web development

Python: non solo Web development

di Claudio Davide Ferrara

Da un sondaggio della Python Foundation e di JetBrains emerge come l'uso di Python sia sempre più diffuso presso gli sviluppatori.

Leggi Python: non solo Web development

AI: l’ascesa dei robot che creano contenuti

di Claudio Davide Ferrara
Scopriamo come l'Intelligenza Artificiale sta cambiando il modo di fare informazione e quali sono le applicazioni più utilizzate dalle redazioni. Leggi AI: l’ascesa dei robot che creano contenuti

AI: l’ascesa dei robot che creano contenuti

di Claudio Davide Ferrara

Scopriamo come l'Intelligenza Artificiale sta cambiando il modo di fare informazione e quali sono le applicazioni più utilizzate dalle redazioni.

Leggi AI: l’ascesa dei robot che creano contenuti

Google con TensorFlow blocca 100 milioni di messaggi spam in più ogni giorno

di Thomas De Faveri

Google comunica i risultati della sua battaglia contro lo spam con TensorFlow: oltre 100 milioni di messaggi individuati in più ogni giorno.

L'articolo Google con TensorFlow blocca 100 milioni di messaggi spam in più ogni giorno proviene da TuttoAndroid.

L’AI svela i limiti del CAPTCHA

di Claudio Davide Ferrara
CAPTCHA nasce per contrastare l'azione dei bot, ma l'AI ne starebbe mettendo in discussione l'efficacia. Leggi L’AI svela i limiti del CAPTCHA

L’AI svela i limiti del CAPTCHA

di Claudio Davide Ferrara

CAPTCHA nasce per contrastare l'azione dei bot, ma l'AI ne starebbe mettendo in discussione l'efficacia.

Leggi L’AI svela i limiti del CAPTCHA

Google I/O 2019, anticipazioni sulle novità

di Claudio Davide Ferrara

Quali potrebbero essere la novità che Mountain View presenterà nel corso del Google I/O 2019.

Leggi Google I/O 2019, anticipazioni sulle novità

Google I/O 2019, anticipazioni sulle novità

di Claudio Davide Ferrara
Quali potrebbero essere la novità che Mountain View presenterà nel corso del Google I/O 2019. Leggi Google I/O 2019, anticipazioni sulle novità

TensorFlow, il machine learning di Google al servizio della sicurezza stradale

di Alessandro Crea

Nello Iowa, dove d’inverno nevica tantissimo e ci sono molti incidenti stradali, hanno deciso di adottare una nuova arma di prevenzione: niente catene, né sale o spazzaneve ma machine learning. Il dipartimento dei trasporti dell’Iowa ha infatti deciso di utilizzare le librerie open source TensorFlow di Google per realizzare specifici algoritmi in grado di analizzare le immagini raccolte lungo le strade e prevenire le situazioni più critiche.

La tecnologia messa a punto serve infatti ad analizzare i dati visuali raccolti attraverso le telecamere fisse e quelle montate sugli spazzaneve, incrociandoli anche con i dati sulla situazione del traffico, raccolti tramite l’utilizzo di radar, con l’obiettivo di ricavarne conclusioni sulle condizioni stradali, in modo da poter intervenire tempestivamente, ad esempio in caso di congestioni stradali dovute a incidenti o avverse condizioni meteo.

Secondo i funzionari del dipartimento dei trasporti inoltre attraverso l’apprendimento automatico dovrebbe essere possibile anche prevedere i rischi di incidenti su determinati tratti stradali, ricavando informazioni sullo stato delle strade attraverso l’analisi delle reazioni dei guidatori e la velocità media mantenuta.

Secondo Google questo è solo uno dei tanti esempi di possibile utilizzo di TensorFlow nella prevenzione degli incidenti stradali. In California ad esempio dove non nevica ma ci sono grandi problemi di traffico, gli studenti di ingegneria elettronica della Loyola Marymount University hanno iniziato a utilizzare le librerie di apprendimento automatico per mettere a punto un sistema in grado di identificare e segnalare la presenza di buche e crepe lungo le strade di Los Angeles.

AMD sperimenta con DirectML per sviluppare qualcosa di simile al DLSS di Nvidia

di Marco Pedrani

Overclock3D ha ribattuto un’intervista fatta da un sito nipponico ad Adam Kozak, senior manager di AMD, in cui si paventa il supporto da parte della nuova Radeon VII di DirectML, estensione delle DirectX dedicata al machine learning. Kozak ha spiegato che AMD sta sperimentando una versione di prova dell’SDK di DirectML proprio con l’ultima nata, registrando “eccellenti risultati”.

DirectML è una tecnologia (ancora agli albori) che sfrutta l’intelligenza artificiale e che permetterebbe di migliorare la resa grafica nei videogiochi. Similmente alla tecnologia DLSS (Deep Learning Super Sampling) di Nvidia, DirectML userebbe un algoritmo in grado sia di migliorare le prestazioni che di fornire immagini di qualità superiore rispetto a quelle ottenute con TAA (Temporal Anti Aliasing).

La tecnologia supporta tutto l’hardware conforme a DirectX 12 ed è in grado di sfruttare le capacità di accelerazione hardware presenti sulle moderne architetture delle GPU, senza necessariamente richiedere unità dedicate come i Tensor core. “Si possono fare cose vicine a DLSS con un approccio simile al GPGPU con la nostra GPU”, ha aggiunto Kozak facendo intuire che la nuova Radeon VII riuscirebbe quindi a fornire immagini della stessa qualità di quelle ottenute usando DLSS.

Differenze tra ML Super Sampling (sinistra) e bilinear upsampling (destra)

Microsoft ha già mostrato in passato il potenziale del machine learning dei videogiochi: quando è usato per aumentare la risoluzione di un’immagine – in questo caso da 1080p a 4K – riesce a fornire un risultato finale più nitido e con meno aliasing, come dimostra l’immagine qui sopra.

Tra DirectX Raytracing e DirectML, è chiaro che tra poco nel gaming non conteranno più solo le pure capacità di shading. Nvidia, AMD e Intel dovranno necessariamente sviluppare nuovo hardware in grado di gestire inferenza, ray tracing e shading tradizionale, e questo porterà inevitabilmente ad un’evoluzione dei giochi come li conosciamo oggi.

Il supporto di Radeon VII a DirectML, seppur al momento solo in via sperimentale, è un passo importante per AMD e ci fa sperare bene per il futuro, in particolare per le nuove GPU basate su architettura Navi che ci aspettiamo debuttino nel corso dell’anno.

Cybersecurity: gli avvertimenti per il 2019 del Mit Technology Review

di Claudio Davide Ferrara
Le più preoccupanti minacce informatiche per il 2019 secondo la Mit Technology Review. Leggi Cybersecurity: gli avvertimenti per il 2019 del Mit Technology Review

ML.NET: il machine learning framework di Microsoft

di Claudio Davide Ferrara
ML.NET è un framework di apprendimento automatico multipiattaforma pensato appositamente per gli sviluppatori .NET. Leggi ML.NET: il machine learning framework di Microsoft

ML.NET: il machine learning framework di Microsoft

di Claudio Davide Ferrara

ML.NET è un framework di apprendimento automatico multipiattaforma pensato appositamente per gli sviluppatori .NET.

Leggi ML.NET: il machine learning framework di Microsoft

Le prime leggi UE sulla robotica, la Commissione ha pubblicato la bozza

di Valerio Porcu

Il gruppo di 52 esperti nominato dalla Commissione Europea ha pubblicato la prima bozza di linee guida per la sicurezza dell’Intelligenza Artificiale. È il primo passo verso un documento che dovrà stabilire le regole da seguire nello sviluppo degli algoritmi in territorio europeo.

L’iniziativa nasce nell’ambito del progetto Digital Single Market, che abbraccia una moltitudine di tematiche, inclusi il copyright, il blocco geografico dei contenuti, la privacy e molto altro – e almeno su alcuni temi le critiche non sono mancate.

Limitandosi al tema dell’Intelligenza Artificiale i nodi riguardano da una parte i diritti del cittadino, la sicurezza delle operazioni (individuale e di massa) e i possibili abusi. Dall’altra la possibilità per le aziende di operare sfruttando al massimo le capacità offerte dalle nuove tecnologie. Le linee guida cercano dunque di fondare e guidare un dibattito che non è tecnologico, ma etico, sociologico e politico.

La bozza elenca dunque alcuni principi etici fondamentali su cui si dovrebbe costruire il dibattito, e cerca di stabilire poi quali siano i “requisiti per un’AI di cui ci si possa fidare“. La bozza propone dieci punti fondamentali.

  1. Responsabilità: l’uso di questi strumenti deve sempre permettere di individuare responsabilità in caso di errori o abusi, e prevedere un sistema sanzionatorio. Se un algoritmo provoca un problema, per esempio non riconoscendo il diritto a un rimborso medico, o provocando un incidente stradale, deve esserci un sistema compensatorio.
  2. Controllo dei dati. Gli algoritmi di machine learning si nutrono di dati, e i dataset possono contenere elementi critici – famosi sono gli esempi di algoritmi che amplificano le discriminazioni, proprio in virtù dei dati usati. La bozza suggerisce l’adozione di sistemi che permettano il controllo e la pulitura dei dati prima che vengano usati. Similmente, si sottolinea l’importanza del controllo sui dati per misurare le prestazioni AI e garantire la piena anonimizzazione degli utenti. Si suggeriscono inoltre sistemi di registrazione dei dati per i sistemi ad apprendimento continuo, per prevenire possibili manipolazioni.
  3. Design democratico. “I sistemi dovrebbero essere progettati in un modo che permettano a tutti i cittadini di usare i prodotti e i servizi, senza discriminazioni di età, disabilità o stato sociale”. In altre parole, si auspica lo sviluppo di sistemi largamente accessibili a tutti i cittadini europei, secondo i principi di equità che costituiscono l’ossatura stessa della UE.
  4. Controllo umano dell’autonomia AI. I sistemi AI sono progettati per funzionare in modo del tutto autonomo, dopo il periodo di training. Valgano come esempio le automobili a guida autonoma, che potranno muoversi per le strade senza un guidatore. La bozza suggerisce estesi periodi di test per questi sistemi, e che i sistemi di controllo e monitoraggio si facciano più rigidi al crescere del livello di autonomia. Sarà necessaria, almeno in alcuni casi, la supervisione umana. “Ciò è rilevante per molte applicazioni AI, in particolare per quelle AI che suggeriscono o prendono decisioni sugli individui o le comunità”.
  5. Non Discriminazione. Negli ultimi anni sono stati molti gli esempi di discriminazione “implicita” nei sistemi AI, un problema legato sempre al dataset usato per l’addestramento (vedi punto 2). Il gruppo di esperti riconosce che le AI possono rendere i problemi di discriminazione ancora più gravi di quanto siano oggi, e che è possibile anche una manipolazione volontaria in questo senso – per quanto nella maggior parte dei casi si tratti di errori da correggere.
  6. Rispetto (e miglioramento) dell’autonomia umana. I sistemi AI dovrebbe essere progettati “anche per proteggere i cittadini nella loro diversità dagli abusi, governativi e privati, resi possibili dalle tecnologie AI”. In altre parole, questi sistemi rendono possibili abusi molto gravi, e dovrebbero contenere in sé stessi le contromisure. È uno dei principi non rispettati dall’Art. 13 della normativa europea sul copyright, per esempio.

“I sistemi con il compito di aiutare gli utenti, devono offrire un supporto esplicito alla promozione delle preferenze personali, e definire i limiti all’intervento del sistema, assicurando che il benessere dell’utente, definito dall’utente stesso, sia centrale per la funzionalità del sistema”.

  1. Rispetto della privacy. I sistemi AI dovranno naturalmente rispettare il recente GDPR e garantire il rispetto della privacy in ogni fase del funzionamento. Vanno tutelati i dati forniti dall’utente all’inizio, ma anche quelli che genera nel corso del tempo (per esempio la cronologia di ricerca).

“I registri digitali sul comportamento umano possono svelare dati molto sensibili, non solo in termini di preferenze ma anche riguardo l’orientamento sessuale, l’età, il sesso, le preferenze religiose e politiche. La persona con il controllo di queste informazioni potrebbe usarle a proprio vantaggio”.

  1. Robustezza. Un sistema di Intelligenza Artificiale affidabile deve essere resistente agli errori, sia in fase di sviluppo che di produzione. E deve essere in grado di gestire risultati errati. I risultati devono dunque essere sempre riproducibili in modo indipendente, una condizione che oggi non è possibile soddisfare con la maggior parte dei sistemi; che sono opachi (da qui il concetto di black-box).
    Devono essere precisi nel classificare le informazioni, nel fare previsioni e valutazioni.
    E devono naturalmente essere resistenti agli attacchi informatici.
  2. Sicurezza. I sistemi AI dovranno garantire l’incolumità degli esseri umani, il che è molto importante in contesti industriali e lavorativi in genere, delle risorse e dell’ambiente. E minimizzare eventuali effetti collaterali negativi, integrando dunque sistemi per la gestione degli incidenti.
  3. Trasparenza. Oggigiorno i sistemi AI sono poco o per nulla trasparenti. Una volta terminato l’addestramento, è spesso impossibile sapere che cosa ha portato a un certo risultato. I 52 esperti, in armonia con il GDPR, suggeriscono di cambiare questa realtà con sistemi AI che possano spiegare sé stessi e il proprio agire. Non è semplice, ma si può fare.

Il lungo documento integra diversi passaggi sui ragionamenti che hanno portato a questi dieci punti, insieme a suggerimenti per la loro realizzazione. Ancora più importante, i commenti sono aperti a tutti fino al prossimo 18 gennaio. Il gruppo di esperti presenterà la versione finale del documento a marzo 2019, e sarà poi il turno della Commissione analizzarlo e proporre come proseguire i lavori.

L'articolo Le prime leggi UE sulla robotica, la Commissione ha pubblicato la bozza proviene da Tom's Hardware.

❌