Il MIT ha creato Norman, la prima intelligenza artificiale "psicopatica"

Paterniano Del Favero
Giugno 10, 2018

È stata realizzata la prima intelligenza artificiale psicopatica: arriva direttamente dal laboratorio del Massachusetts Institute of Technology un'AI piuttosto inquietante, che durante test specifici ha manifestato reazioni similari a quelle di persone affette da psicopatia.

Sul palco si sono quindi succedute realtà già consolidate e startup, che hanno presentato casi d'uso nei quali l'intelligenza artificiale e il machine learning stanno aiutando a rendere più efficienti processi di business tradizionali, creare e gestire nuovi modelli di business, sviluppare prodotti e servizi innovativi. A crearla, dedicandole anche un sito, sono stati gli esperti del Mit di Boston, per verificare quanto i dati con cui si 'addestra' l'intelligenza influiscono sul risultato finale. Questo, dopo l'invito di migliaia di dipendenti a interrompere la partecipazione dell'azienda al Progetto Maven, cioè lo sviluppo di un'intelligenza artificiale capace di analizzare le riprese dei droni per il Dipartimento della Difesa degli Stati Uniti.

Eppure se sottoponessimo ad uno psichiatra i risultati dati da Norman a seguito del test di Rorschach, difficilmente potrebbe dubitare della sua psicopatia. Se in una immagine l'IA normale vedeva un gruppo di uccellini su di un albero, Norman vedeva un uomo sottoposto ad una scarica elettrica.

Questa nuova raccolta di principi e propositi può essere considerata una sorta di risposta alle domande poste l'anno scorso da Sergey Brin nella lettera dei Fondatori di Alphabet, con cui si occupava dell'impatto dell'apprendimento automatico e dell'intelligenza artificiale, nonché dei problemi e delle aspettative che Google aveva nello sviluppo della nuova tecnologia. Eppure i suoi creatori non sembrano affatto preoccupati.

Ciascuno di questi punti viene ulteriormente chiarito da Pichai, ma ciò che è quasi più importante di ciò che la AI di Google deve fare, è ciò che non deve fare. "Quindi quando le persone parlano di algoritmi 'razzisti' o 'scorretti' - affermano gli ideatori - il problema non è nell'algoritmo in sé, ma nei dati usati".

Ad oggi le macchine possono eseguire compiti complessi tenendo conto di calcoli di probabilità, puntando sulla massima efficienza delle loro "scelte", ma l'etica resterà non pervenuta. Se non ci credete, visitate il mio sito.

I principi a cui Google si ispirerà vanno dal rispetto della privacy alla sicurezza, fino ai vantaggi sociali e alla responsabilità nei confronti dei cittadini.

Altre relazioni OverNewsmagazine

Discuti questo articolo

SEGUI I NOSTRI GIORNALE