Allarmi sull’IA: troppi o ancora troppo pochi?
INTELLIGENZA ARTIFICIALE
di Annamaria Testa
Il primo degli allarmi sull’IA, l’intelligenza artificiale, risale agli anni Cinquanta, quando ancora i computer sono bestioni molto più ingombranti che intelligenti.
Eppure, già allora il matematico inglese Alan Turing, parlando in un programma radiofonico della BBC, espone le sue preoccupazioni sull’IA. E propone la visione di un futuro in cui computer intelligenti superano le nostre deboli forze e prendono il controllo. Sembra null’altro che la suggestione distopica di una mente visionaria, anche perché, nei decenni successivi (di tutto ciò racconta un precedente articolo di questa serie) le prestazioni dei computer migliorano sì, ma lentamente e in ambiti ristretti, i finanziamenti sono ridotti e la maggior parte dei centri di ricerca si occupa d’altro.
Poi, nel 2012 succede qualcosa che cambia tutto il resto. Con il deep learning basato su grandi reti neurali artificiali, rapidissimamente i computer diventano capaci non più solo di eseguire, ma anche di imparare. E diventano capaci perfino di imparare da soli: cioè senza supervisione umana.
L’ALLARME DI HAWKING. È il fisico teorico Stephen Hawking ad affermare, in un’intervistadel 2 dicembre 2014, che l’intelligenza artificiale può portare grandi benefici, ma che the development of full artificial intelligence could spell the end of the human race.
Dire che “lo sviluppo dell’intelligenza artificiale può segnare la fine dell’umanità” è impegnativo. E lo è specie da parte di una persona la cui interazione con il mondo e la cui stessa sopravvivenza sono da decenni affidate alla tecnologia (Hawking soffre di SLA – sclerosi laterale amiotrofica – e utilizza un sintetizzatore vocale per comunicare).
Tuttavia, Hawking sente il bisogno di lanciare un allarme a partire dalla possibilità che l’intelligenza artificiale decolli da sola, modificandosi e progettando e costruendo autonomamente sistemi sempre più capaci. Gli esseri umani, vincolati dal ritmo lento dell’evoluzione biologica, ne verrebbero travolti.
PERDERE IL CONTROLLO DELL’IA? Sempre nel 1914 Eric Horvitz, direttore dei Microsoft Research Labs, scrive: alcuni hanno ipotizzato che un giorno potremmo perdere il controllo dei sistemi di intelligenza artificiale a causa dell’ascesa di superintelligenze che non agiscono secondo i desideri umani, e che sistemi così potenti minaccerebbero l’umanità. Horvitz aggiunge che queste ansie vanno affrontate anche se sono ingiustificate. Segnala diversi ambiti di ricerca, dai rischi per la privacy a quelli per la democrazia, alle implicazioni normative, legali, etiche, alle ricadute sull’economia e sul mercato del lavoro, ai potenziali usi criminali e bellici, all’eventualità più estrema: che ci si avvii verso una potente “singolarità” dell’IA, tale da implicare una perdita di controllo sui processi attuati dalle macchine.
VANTAGGI E RISCHI. Nel gennaio 2015 è ancora Hawking, con Elon Musk e oltre 150 scienziati e pensatori, a firmare una lettera aperta intitolata Priorità di ricerca per un’intelligenza artificiale solida e benefica. Il testo sottolinea che l’IA può portare grandi vantaggi all’umanità. Ma il documento allegato segnala l’esistenza di rischi in molti ambiti, e afferma che risolvere il problema del controllo dell’IA è cruciale.
LIMITI BIOLOGICI. Torna sullo stesso tema pochi mesi dopo, in una illuminante Ted Conference, il direttore del Future of Humanity Institute di Oxford, Nick Bostrom, che domanda: che cosa succede quando i nostri computer diventano più intelligenti di noi? Sottolinea i limiti biologici (non in termini di lentezza evolutiva, ma di capacità di elaborare dati) del nostro cervello. Dice che in questo secolo gli scienziati potrebbero scatenare la potenza dell’intelligenza artificiale così come nel secolo precedente hanno scatenato la potenza dell’atomo.
Dice che l’IA può essere l’ultima invenzione a cui l’umanità mette mano: poi, le macchine diventeranno immensamente più brave (e più veloci) di noi. E potrebbero dare forma al futuro secondo le loro preferenze, anche perché non esiste un pulsante per spegnere tutta l’intelligenza artificiale.
IL DEMONE NELLA BOTTIGLIA. In sostanza: non possiamo sperare che l’IA, come il demone del racconto di Stevenson, se ne resti chiusa nella bottiglia per sempre. Dunque, dobbiamo già adesso fare in modo che, quando uscirà dalla bottiglia (dato che prima o poi ne uscirà) sia amichevole verso di noi. Perché questo accada, dobbiamo costruire qualcosa di ancora più complicato di una superintelligenza artificiale: una superintelligenza artificiale che sia sicura. E il rischio è quello di darsi da fare per raggiungere il primo obiettivo, trascurando il secondo.
IMPERSCRUTABILI. Dobbiamo notare che già da qualche anno (ad affermarlo nel 2017 è la Mit Technology Review) i processi che stanno alla base di alcune prestazioni dell’IA appaiono del tutto imperscrutabili agli stessi ricercatori che la progettano.
E dobbiamo notare che, grazie al diffondersi delle strutture di cloud computing e alla crescente disponibilità di ampie banche-dati, i costi dell’intelligenza artificiale diminuiscono, gli ambiti di applicazione si espandono e cresce il numero delle imprese che la utilizzano.
AMPI IMPIEGHI, NESSUNA REGOLA. Nel 2017, secondo un sondaggio globale di Boston Consulting Group (BCG), già un’azienda su cinque incorpora l’IA in alcune offerte o processi. E un po’ meno del 40 per cento delle aziende e oltre il 50 per cento delle grandi aziende ha strategie per l’impiego dell’IA. BCG cita inoltre alcuni dei campi in cui l’IA viene applicata. Tra questi: marketing e vendite personalizzate, previsioni sull’andamento dei mercati, aiuto nello sviluppo di nuovi prodotti. E poi: gestione della produzione, acquisti, magazzini e logistica, revisione di contratti, operazioni assicurative e bancarie. E ancora: prevenzione sanitaria, diagnostica, ottimizzazione delle prestazioni mediche, sviluppo di nuovi farmaci, automazione dei servizi (con conseguente riduzione dei costi della manodopera).
Tutto ciò succede in assenza di qualsiasi norma in merito emessa da governi nazionali o da organizzazioni internazionali.
LA PRIMA LEGGE AL MONDO. Solo nel 2019 G7 e G20 si accordano su una serie di princìpi per una crescita inclusiva e sostenibile nell’impiego dell’IA. La Commissione Europea comincia a occuparsi dell’IA nel 2018 e produce un regolamento generale sulla protezione dei dati. Nell’aprile 2021 elabora una proposta di legge europea (EU AI Act) comprendente una graduatoria dei rischi, che dovrebbe diventare operativa entro il 2024. È la prima legge al mondo formulata di un importante ente regolatore e riguardante l’IA. Il testo viene approvato ai primi di maggio 2023, e reso più stringente per quanto riguarda, ad esempio, il riconoscimento facciale.
I rischi dell’IA secondo l’EU Artificial Intelligence Act del 2021
Nel settembre 2021 l’UNESCO pubblica un report intitolato La corsa contro il tempo per uno sviluppo più saggio. Il 24 novembre 2021 definisce, in forma di raccomandazione, un insieme di norme etiche per l’IA: è il primo strumento globale di definizione degli standard su questo tema. Viene adottato da 193 paesi ma non ha potere normativo.
In seguito, nel maggio 2022, la Commissione Europea pubblica una Risoluzione sull’intelligenza artificiale nell’era digitale.
NUOVI ALLARMI SULL’IA. Tra il 2017 e il 2022 gli articoli accademici sui rischi dell’IA si moltiplicano e si fanno via via più specifici. Le definizioni che i ricercatori danno dell’IA vanno da “tecnologia dirompente” a “la più grande invenzione dell’umanità”.
I rischi evidenziati riguardano la privacy e la democrazia e i diritti umani. I possibili pregiudizi (bias) che possono distorcere le valutazioni dell’IA in materia sanitaria. L’impatto dell’IA sulla salute pubblica, sul sistema dei media e sulla giustizia.. Le implicazioni etiche dell’impiego dell’IA nei campi più diversi, dall’agricoltura di precisione alla gestione del traffico, all’addestramento militare.
DISTOPIE CINESI. Intanto, la Cina non si pone tutti questi problemi e l’intelligenza artificiale sta già assumendo connotazioni distopiche. Dal 2021 esiste un telegiornale finanziario trasmesso in diretta 24 ore al giorno e interamente gestito (compresi gli avatar dei conduttori) dall’IA. Un articolo uscito a fine 2021 sul South China Morning Post racconta che la Procura del Popolo di Shanghai Pudong sta sviluppando un “procuratore artificiale” capace di riconoscere otto tipi di reato e di sporgere denuncia: avrebbe un’accuratezza del 97 per cento e potrebbe ridurre il lavoro delle procure. L’intelligenza artificiale viene anche sviluppata per contrastare l’evasione fiscale e, naturalmente, per la sorveglianza. E si progettano smart city i cui servizi possono essere gestiti dall’IA ed erogati su base individuale, compresi i consigli su come vestirsi date le condizioni meteo previste.
Qui da noi, sempre nel 2021, un sondaggio della IE University di Madrid attesta (pagina 10) che il 51 per cento degli europei (e oltre il 60 per cento di quelli che hanno 25-35 anni) apprezzerebbe che una parte dei parlamentari venisse sostituito da un algoritmo.
PRESTAZIONI STUPEFACENTI. Ci vuole poco, però, perché la percezione cambi. Un sondaggio PEW Research del 17 marzo 2022 dice che a un 18 per cento di americani entusiasti dell’IA fa riscontro un 45 per cento ugualmente eccitato e preoccupato e un 37 decisamente preoccupato.
A fine 2022 la società Open AI lancia ChatGPT, un’IA generativa che può produrre testi in risposta a specifiche richieste. È facile da usare, ha prestazioni stupefacenti, è accessibile a chiunque. Nel giro di due mesi si guadagna 100 milioni di utenti. E l’interesse collettivo si impenna.
Le ricerche del termine “intelligenza artificiale” in Italia dal 2004 a oggi, secondo Google Trends
Le ricerche del termine “AI” (Artificial Intelligence) nel mondo dal 2004 a oggi, secondo Google Trends
Il 26 marzo 2023, uno studio di Goldman Sachs segnala che l’adozione dell’IA potrebbe accrescere di 7 punti il pil globale annuo. Ma potrebbe anche avere un effetto dirompente (l‘aggettivo disruptive ricorre spesso a proposito dell’IA) sull’occupazione, mettendo a rischio 300 milioni di posti lavoro.
Appena 4 giorni prima, il 22 marzo, il Future of Life Institute pubblica una lettera aperta dai toni allarmati: l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate.
È un appello pressante. Chiede ai governi di varare una moratoria di almeno sei mesi su studi che rischiano di sviluppare menti digitali sempre più potenti che nessuno – nemmeno chi le ha create – può capire, prevedere o controllare. E di di istituire autorità capaci di supervisionare, tracciare e certificare i nuovi sistemi di IA.
A firmare l’appello sono, oltre a moltissimi ricercatori, Elon Musk, fondatore di Tesla, Steve Wozniak, co-fondatore di Apple, Jaan Tallinn, co-fondatore di Skype, Evan Sharp, co-fondatore di Pinterest.
MATRICI IMPERSCRUTABILI. Altri allarmi sull’IA vengono diffusi nei giorni successivi. Il 29 marzo uno dei padri dell’intelligenza artificiale, Eliezer Yudkowsky, scrive a Time che certo, la moratoria chiesta dal Future of Life Institute è meglio che niente. Ma sottostima la gravità della situazione: se crei qualcosa di molto, molto più intelligente di te, e quel qualcosa è composto da enormi matrici imperscrutabili, il risultato probabile è che tutti sulla terra moriranno. È della stessa opinione il ricercatore Paul Christiano.
Anche le persone comuni cominciano a preoccuparsi. Ma continuano a farlo in chiave, diciamo così, meno apocalittica: il 4 aprile Forbes pubblica un sondaggio, secondo il quale il 75 per cento del pubblico americano è preoccupato per la crescita della disinformazione connessa con la diffusione incontrollata dell’IA.
IL DEEPFAKE DEL PAPA. Il 28 marzo, un’immagine del papa vestito con un candido piumino Balenciaga fa il giro del mondo. La foto, a parte alcuni piccolissimi dettagli, è realistica. In pochi mesi Midjourney, l’IA che l’ha creata, è perfino diventata capace di rappresentare le mani umane che fino ad allora la mettevano in difficoltà. La Storia potrebbe considerare il Papa in Balenciaga come il primo vero evento di disinformazione virale alimentato dalla tecnologia deepfake e un segno dei guai in arrivo, scrive Time. E specifica che a oggi non esistono online strumenti gratuiti in grado di discriminare immagini false o vere.
Il papa in piumino Balenciaga. L’immagine viene diffusa il 28 marzo 2023
INTELLIGENZA ALIENA. Il 28 aprile L’Economist pubblica un articolo intitolato Yuval Noah Harari afferma che l’IA ha hackerato il sistema operativo dell’intelligenza umana (qui la traduzione italiana, uscita su Internazionale). In sostanza, Harari dice che quasi tutta la nostra cultura e il nostro sistema di credenze e valori condivisi si basano sul linguaggio. Se l’IA se ne impossessa e lo manipola, può manipolare anche le nostre opinioni creando una falsa intimità, può configurarsi come “oracolo onnisciente”, può creare religioni. Per millenni gli esseri umani hanno vissuto all’interno dei sogni di altri esseri umani. Nei prossimi decenni potremmo trovarci a vivere all’interno dei sogni di un’intelligenza aliena. Per questo è necessario e urgente che l’IA venga regolamentata.
Va però sottolineato che formalizzare una regolamentazione efficace su un fenomeno così esteso e pervasivo come l’IA non è per niente facile né veloce. Estendere le regole su scala mondiale, o quasi, può essere ancora più lento e complicato.
TUTTO VA VELOCE. 5 maggio, Yougov afferma che oltre la metà del pubblico globale è preoccupato per la perdita di posti di lavoro.
Sempre ai primi di maggio è lo psicologo cognitivo e informatico Geoffrey Hinton, vincitore del Turing Award, a dimettersi da Google. Hinton lancia, dal campus del MIT, un appello a Stati Uniti e Cina perché regolamentino l’IA, che sta sviluppandosi molto più rapidamente di quanto lui e altri informatici si aspettassero, e potrebbe a breve superare i suoi creatori umani: pensavo che ci sarebbero voluti dai 30 ai 50 anni, dice. Ora penso che sia più probabile che siano da cinque a 20. Ciberattacchi, truffe, disinformazione e sorveglianza di massa sono I quattro maggiori rischi immediati.
Il 13 maggio esce la notizia che la Casa Bianca sta arruolando 4mila hacker per trovare le falle dell’IA. Di incontreranno a Las Vegas il prossimo agosto.
CONTINUA LA SERIE DEGLI ALLARMI SULL’IA. Il 17 maggio Sam Altman, il fondatore di Open AI, appena due mesi dopo aver magnificato a Seattle le prestazioni di Chat GPT, in un’audizione davanti alla sottocommissione Giustizia del Senato chiede che il governo si attivi in fretta per mitigare I rischi dell’AI, così come è stato fatto in passato per gli armamenti nucleari: se questa tecnologia prende la direzione sbagliata, diventa veramente tossica. Può, per esempio, manipolare le menti e alterare I risultati elettorali.
ULTIME NOTIZIE. È del 23 maggio la notizia che Microsoft intende portare l’IA nei nostri computer con Windows Copilota. È un assistente personale integrato in Windows che può riassumere testi, riscriverli e perfino spiegarli. E possiamo chiedergli di modificare le impostazioni del computer, o possiamo fargli le domande generali che siamo abituati a porre a un motore di ricerca.
QUATTRO ORDINI DI RISCHI. In buona sostanza, i rischi dell’IA si possono ricondurre a quattro categorie. Il primo rischio, e il più ovvio, è che l’IA non faccia “bene abbastanza” quello che le vogliamo far fare. Che sia affetta da bias, che soffra di allucinazioni, che abbia delle vulnerabilità. Questi problemi possono essere risolti man mano che si presentano.
IL LATO ESPERTO DELL’IA. Il secondo rischio è che l’IA faccia “troppo bene” quello che le vogliamo far fare, eliminando posti di lavoro qualificati in moltissimi ambiti, dal giornalismo all’intero sistema dei media, alla programmazione, all’intrattenimento, ai settori legale, bancario, finanziario, assicurativo, al marketing e all’assistenza-clienti, ai trasporti, alla produzione di immagini e video… cambiando le regole e i processi di interi mercati e rendendo obsoleti i sistemi produttivi di un gran numero di imprese. Chi parla dell’IA come di un’innovazione dirompente, con ogni probabilità ha in mente questi scenari.
IL LATO POTENZIALMENTE TOSSICO DELL’IA. Il terzo rischio (e questo è ancora più dirompente) è che l’IA faccia molto, molto bene quello che non vorremmo che facesse: esercitare una sorveglianza ubiqua e intrusiva, disinformare e diffondere notizie false e credenze infondate, manipolare le persone attraverso una comunicazione individualizzata e intima, alterare i risultati elettorali, trasformarsi in uno strumento bellico, disabituare gli studenti a produrre pensiero critico.
IL LATO INIMMAGINABILE. Il quarto rischio, quello che più, mi pare, sta allarmando i ricercatori, e che forse è meno chiaro ai non addetti ai lavori, è che l’IA arrivi a fare qualcosa (o che diventi qualcosa) che riusciamo a stento a immaginare, in modi che non saremmo in grado di capire e seguendo criteri che non le abbiamo trasferito e che non condividiamo. È la singolarità di cui finora hanno parlato soprattutto i futurologi e gli autori di fantascienza.
Ma ora non sono più soltanto loro a parlarne. A metà maggio 2023 il New Yorker scrive che, secondo molti ricercatori, ci sono buone probabilità che l’attuale tecnologia AI si trasformi in intelligenza artificiale generale, o AGI, una forma superiore di IA in grado di pensare a livello umano sotto molti o quasi tutti gli aspetti. Un gruppo più piccolo sostiene che il potere dell’AGI potrebbe aumentare in modo esponenziale. Se un sistema informatico è in grado di scrivere codice, come già fa ChatGPT , allora potrebbe imparare a migliorarsi più e più volte fino a quando la tecnologia informatica non raggiungerà quella che è nota come ” la singolarità”: un punto in cui sfugge al nostro controllo. Nello scenario peggiore immaginato da questi pensatori, IA incontrollabili potrebbero infiltrarsi in ogni aspetto delle nostre vite tecnologiche, interrompendo o reindirizzando la nostra infrastruttura, i sistemi finanziari, le comunicazioni e altro ancora.
Questo scenario non è affatto scontato. Ma i recenti progressi dell’IA l’hanno reso più plausibile, anche perché le grandi aziende stanno già sviluppando algoritmi “generalisti”. È il problema di Re Mida (King Midas Problem): raggiungere integralmente un obiettivo che appare desiderabile avendone sottostimato le implicazioni e le conseguenze altamente indesiderabili.
Qualsiasi cosa succeda con l’intelligenza artificiale, non potremo certo dire di non essere stati avvertiti anche se, forse, potremmo lamentare il fatto di non essere stati avvertiti in tempo utile (non è così vero, e questo articolo intende ricordarlo).
È però normale e comprensibile che il nostro ragionamento sul futuro abbia delle carenze: da un lato (pensiamo alla recente pandemia) siamo davvero poco capaci di individuare e comprendere i fenomeni di crescita esponenziale quando sono nelle loro fasi iniziali.
Dall’altro, siamo affetti dal bias dell’ottimismo, che ci fa sovrastimare la possibilità di eventi futuri positivi e sottostimare la possibilità di eventi negativi. Dall’altro lato ancora, riusciamo a immaginare il futuro solo a partire dai dati e dalle cognizioni del passato e del presente che già abbiamo interiorizzato: per questo, e al netto delle distopie letterarie, tendiamo a figurarcelo come una versione un po’ più lucida, un po’ più ripulita e automatizzata e piena di gadget del presente. Perfino con l’emergenza climatica, della quale pure abbiamo segnali assai visibili e drammatici, le nostre reazioni sono lente, e la nostra tendenza a procrastinare decisioni complesse e scomode è permanente. Ma forse dovremmo, finalmente, riuscire a dimostrarci un po’ più lungimiranti, e più intelligenti, di così.
- Autrice: Annamaria Testa
- - 24 maggio 2023
Questo è il terzo di una serie di articoli sull’intelligenza artificiale.
Il primo racconta la storia dell’IA dagli esordi a oggi: Che succede con l’intelligenza artificiale?
Il secondo dice, in parole semplici, come l’IA funziona: Ma l’intelligenza artificiale è “intelligente”?
L’immagine che illustra questo articolo è stata generata da Midjourney.