Un team di ricercatori del MIT di Boston ha annunciato la creazione della “prima intelligenza artificiale psicopatica”. Il software in questione si chiama Norman, in omaggio al protagonista di Psycho, il capolavoro cinematografico di Alfred Hitchcock uscito nel 1960 e interpretato magistralmente da Anthony Perkins. Obiettivo dell’esperimento, che ha prodotto risultati divertenti e inquietanti, è quello di dimostrare come il comportamento delle intelligenze artificiali sia influenzato dal mondo in cui decidiamo di “educarle”. Com’è noto, infatti, la caratteristica principale di questo genere di tecnologia risiede nella capacità di imparare con l’esperienza. Ma in cosa consiste l’esperienza per un algoritmo? Consiste nella quantità e nella qualità dei dati che gli vengono dati in pasto. In sostanza, un po’ come succede per gli esseri umani, le intelligenze artificiali possono acquisire abilità, comportamenti e inclinazioni molto differenti a seconda degli input che ricevono durante la propria vita. Nel caso del povero Norman, esposto volontariamente a una serie di contenuti violenti provenienti da un forum online dedicato al tema della morte, il risultato è un sistema che “vede” uccisioni, incidenti e sangue in qualsiasi immagine, anche astratta, che gli venga mostrata. Dove un altro software, allenato con dati diversi, vede “un gruppo di uccelli seduto sulla cima di un ramo”, Norman vede “un uomo che muore fulminato”.
“In sostanza, un po’ come succede per gli esseri umani, le intelligenze artificiali possono acquisire abilità, comportamenti e inclinazioni molto differenti a seconda degli input che ricevono durante la propria vita.”
Un simile esperimento era stato condotto nel 2016 su Tay, un Twitter bot lanciato da Microsoft. Non da un team di ricercatori, ma dagli stessi utenti del social network, che poche ore dopo il lancio iniziarono a “diseducare” il software coinvolgendolo in discorsi razzisti, violenti e omofobi. L’esito imprevisto del progetto costrinse l’azienda a ritirare il bot dopo sole 16 ore per fermare la pubblicazione di post dal contenuto a dir poco scorretto.
Questi due casi, ma se ne potrebbero citare molti altri, raccontano con efficacia il sentimento di profonda ambivalenza che ruota attorno al tema dell’intelligenza delle macchine. Se infatti l’automazione, e la conseguente possibilità di utilizzarla per liberare l’uomo dal lavoro, rappresenta un punto chiave di molte teorie politiche progressiste come l’accelerazionismo, le stesse tecnologie innescano dubbi e ataviche paure. Al timore della singularity, una specie di apocalisse robotica che porterebbe all’estinzione del genere umano per mano delle macchine (un tema più volte esplorato dalla narrativa e dalla cinematografia di fantascienza), si aggiunge un nuovo livello di inquietudine, che coinvolge la sfera inconscia dell’essere umano, affollata di sogni, incubi e desideri repressi.
Molte delle sperimentazioni condotte sulle intelligenze artificiali, soprattutto da artisti e ricercatori impegnati in progetti non convenzionali, hanno infatti liberato tutto il potere generativo e surrealista di questi algoritmi. Gli esempi non mancano: dalle visioni lisergiche di Google Deep Dream, che sembrano uscite da un documentario sull’LSD, ai ritratti di nudi generati dall’ingegnere Robbie Barrat, figure che ricordano le carni tormentate e deformate dei quadri di Francis Bacon, fino alle fotografie della serie Adversarially Evolved Hallucinations dell’artista americano Travor Paglen, popolate di presenze mostruose e visioni inquietanti.
“Molte delle sperimentazioni condotte sulle intelligenze artificiali, soprattutto da artisti e ricercatori impegnati in progetti non convenzionali, hanno infatti liberato tutto il potere generativo e surrealista di questi algoritmi.”
La macchina, insomma, si fa ancora una volta portatrice di metafore e tematiche che riguardano la natura umana, un tema che serpeggia nella storia dell’arte e della cultura da secoli, dalle macchine celibi surrealiste ai cyborg, passando per Frankenstein e i replicanti di Blade Runner. Oggi, però, non si discute soltanto dell’ipotesi che i computer possano sviluppare il dono della coscienza e prendere decisioni autonome, ma ci si inoltra direttamente nei territori del subconscio. Se infatti il compito principale dell’intelligenza artificiale è quello di simulare il funzionamento della mente umana, questa simulazione implica necessariamente l’esistenza di un livello inconscio, inaccessibile ai controlli della parte cosciente. Ed è proprio su queste dinamiche che la ricerca sull’AI sta lavorando.
Paul Dolan, professore di Scienze comportamentali alla London School of Economics and Political Science, ha così commentato un recente studio sul tema commissionato dalla Huawei in occasione del lancio dello smartphone Mate 10 Pro, il primo dotato di un chip AI: “I risultati sono affascinanti perché dimostrano che la nostra mente processa molte cose a livello non cosciente”. Questi meccanismi che lavorano “in background”, tanto utili per velocizzare le operazioni di routine, abitano gli stessi territori da cui provengono incubi e visioni. Proprio come nei romanzi di Philip K. Dick, dove l’attività che rende gli androidi più simili agli umani è quella onirica, il punto di contatto tra uomo e macchina potrebbe trovarsi sepolto, da qualche parte, nelle profondità dell’inconscio.
– Valentina Tanni
Articolo pubblicato su Artribune Magazine #44
Abbonati ad Artribune Magazine
Acquista la tua inserzione sul prossimo Artribune
Artribune è anche su Whatsapp. È sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati