Se ne discute ormai da tempo: l’Intelligenza Artificiale ha bisogno di una regolamentazione sistemica che metta un freno al caos generato dall’aggiornamento costante e irrefrenabile di questa nuova tecnologia, al fine di garantire la tutela di principi imprescindibili come quelli della privacy, della non-discriminazione, la sicurezza, la trasparenza, il benessere sociale e la sostenibilità ambientale. Da mesi la discussione viene portata avanti nel tentativo di trovare un accordo sull’AI Act – Artificial Intelligence Act dell’Unione Europea, ovvero la prima legge al mondo che regolamenti l’intelligenza artificiale. Composto da 85 articoli, nel mirino del decreto ci sono le applicazioni di intelligenza artificiale generativa come Chat GPT o Midjurney. Il 6 dicembre 2023 si è aperto l’ultimo dibattito tra Consiglio europeo, Commissione e Parlamento, e dopo 36 ore di negoziati, il 9 dicembre 2023 è arrivato l’accordo che segna il via libera alla legislazione.
L’autoregolamentazione dell’AI Act
Raggiunta l’intesa a novembre, nelle scorse settimane Italia, Francia e Germania hanno proposto la via dell’autoregolamentazione delle singole aziende attraverso codici di condotta per gli sviluppatori di IA. Posizione che ha fatto suonare un campanello di allarme alle 34 associazioni di imprese, autori, artisti e altri professionisti del settore culturale italiano, che hanno lanciato un appello unanime per il cambio di rotta. “Chiediamo con forza al Governo italiano di sostenere una regolamentazione equilibrata che, garantendo la trasparenza delle fonti, favorisca lo sviluppo delle tecnologie di intelligenza artificiale, tutelando e promuovendo al contempo la creatività umana originale e tutti i contenuti culturali del nostro Paese”. Secondo le 34 associazioni firmatarie, una regolamentazione europea è di fondamentale importanza per garantire una protezione equa dei diritti del cittadino. I rischi principali sarebbero connessi alla possibilità che “il lavoro originale degli autori, artisti e delle imprese culturali e creative venga sostituito, costringendoli a competere con le loro repliche digitali che ne ricaverebbero ovvi vantaggi sotto diversi profili con gravi conseguenze anche economiche”.
AI Act: le AI generative e i modelli fondativi
Inoltre, “esiste anche un rischio più ampio per la società, poiché le persone potrebbero essere indotte a credere che i contenuti che incontrano – testuali, audio o audiovisivi – siano creazioni umane autentiche e veritiere, quando sono semplicemente il risultato della generazione o manipolazione dell’AI. Questo inganno può avere implicazioni di vasta portata per la diffusione di disinformazione e l’erosione della fiducia nell’autenticità dei contenuti digitali e presenta seri problemi anche sotto il profilo etico”. Intanto, simili mobilitazioni si sono verificate anche in Francia e Germania. Per quanto riguarda i sistemi che, come Chat GPT, utilizzano i modelli fondativi (i foundational models), la proposta crea due suddivisioni in base alla capacità computazionale. Al momento, l’unico sistema abbastanza potente da rientrare nella regolamentazione più severa è GPT-4 di OpenAI: tutti gli altri foundational models avranno restrizioni di minore portata, legate unicamente alla commercializzazione dei propri prodotti.
AI Act: come garantire trasparenza e privacy?
Altro nodo fondamentale riguarda la trasparenza riguardo le fonti utilizzate per addestrare gli algoritmi attraverso “l’obbligo di conservare e rendere pubblicamente disponibili informazioni sufficientemente dettagliate sulle fonti, i contenuti e le opere utilizzati per l’addestramento, al fine di consentire alle parti con un interesse legittimo di determinare se e come i loro diritti siano stati lesi e di intervenire”. C’è poi la spinosa questione della privacy e della sorveglianza. Se il Parlamento europeo (determinato ad adottare regole stringenti) ha chiesto di vietare l’uso dell’AI per identificare le persone con il riconoscimento biometrico in tempo reale, la posizione del Consiglio (che invece propende per un approccio più tollerante) sembra essere favorevole all’autorizzazione di alcune forme di sorveglianza in determinati frangenti. Questo lo scoglio più difficile da superare, tanto che la questione ha monopolizzato ben 20 ore di negoziato: l’opposizione del Parlamento è stata vincente, con il risultato che il riconoscimento biometrico è stato vietato, salvo in tre casi straordinari (“Prevista ed evidente minaccia di attacco terroristico; ricerca di vittime; persecuzione di seri crimini”).
AI Act: svolte e riflessioni
Per quando la prima approvazione dell’AI Act segni un punto di svolta epocale nella storia della legislazione e per il futuro di questa tecnologia, si tratta soltanto dell’inizio. Ci aspettano ancora ben 24 mesi prima che le sue funzioni vengano applicate a pieno regime (mentre sono solo 6 i mesi per proibire gli usi vietati), e sono ancora molti gli aspetti da limare. Insomma, è ancora presto per cantar vittoria, perché numerosi cavilli e dettagli potrebbero permettere l’insinuarsi di pericolosi meccanismi di controllo e sorveglianza. Nel frattempo, è stato creato un ufficio europeo dedicato all’intelligenza artificiale per sovrintendere all’applicazione della legge.
Laura Cocciolillo
Artribune è anche su Whatsapp. È sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati