La scorsa settimana il Center for Humane Technology ha convocato oltre 100 leader della finanza, della filantropia, dell’industria, del governo e dei media nella Kissinger Room del Paley Center for Media di New York City per ascoltare come l’intelligenza artificiale potrebbe spazzare via l’umanità. I due relatori, Tristan Harris e Aza Raskin, hanno iniziato la loro presentazione del tempo del giudizio con una diapositiva che diceva: “Ciò che le armi nucleari sono per il mondo fisico … L’IA è per tutto il resto”.
Ci è stato detto che questo raduno era storico, uno che avremmo ricordato nei prossimi anni poiché, presumibilmente, i quattro cavalieri dell’apocalisse, sotto le spoglie dei chatbot di Bing, sarebbero scesi per sostituire la nostra intelligenza con la loro. Ha evocato la scena di vecchi film di fantascienza – o la farsa più recente Don’t Look Up – in cui gli scienziati scoprono una minaccia e tentano di scuotere per le spalle una popolazione addormentata per spiegare che questa minaccia mortale è diretta verso di noi, e noi morirà se non fai qualcosa ADESSO.
Almeno questo è ciò che Harris e Raskin sembrano aver concluso dopo che, nel loro racconto, alcune persone che lavorano all’interno di aziende che sviluppano intelligenza artificiale si sono avvicinate al Centro con la preoccupazione che i prodotti che stavano creando fossero straordinariamente pericolosi, dicendo che era necessaria una forza esterna per prevenire la catastrofe. I cofondatori del Centro hanno ripetutamente citato una statistica di un sondaggio che ha rilevato che la metà dei ricercatori di intelligenza artificiale ritiene che ci sia almeno il 10% di possibilità che l’intelligenza artificiale possa estinguere gli esseri umani.
In questo momento di clamore e incertezza dell’IA, Harris e Raskin hanno prevedibilmente scelto di essere loro stessi a rompere il vetro per far scattare l’allarme. Non è la prima volta che fanno scattare le sirene. I progettisti tecnologici sono diventati comunicatori esperti di media, hanno co-fondato il Centro per informare il mondo che i social media erano una minaccia per la società. La massima espressione delle loro preoccupazioni è arrivata nel loro coinvolgimento in un popolare documentario Netflix con film horror chiamato The Social Dilemma. Sebbene il film sia privo di sfumature e in qualche modo isterico, sono d’accordo con molte delle sue lamentele sulla cattura dell’attenzione dei social media, sugli incentivi a dividerci e sull’armamento dei dati privati. Questi sono stati presentati attraverso interviste, statistiche e grafici. Ma il dottore ha silurato la propria credibilità passando a una narrativa fittizia esaltata direttamente da Reefer Madness, che mostra come una sana famiglia (inventata) del cuore è portata alla rovina – un ragazzo radicalizzato e imprigionato, un altro depresso – da Post di Facebook.
Questa unilateralità caratterizza anche la nuova campagna del Centro chiamata, indovina un po’, il dilemma dell’IA. (Il Centro è timido sul fatto che sia in lavorazione un altro documento Netflix.) Come il dilemma precedente, molti punti di Harris e Raskin sono validi, come la nostra attuale incapacità di comprendere appieno come i bot come ChatGPT producono il loro output. Hanno anche fornito un bel riassunto di come l’intelligenza artificiale sia diventata così rapidamente abbastanza potente da fare i compiti, potenziare la ricerca su Bing ed esprimere amore per l’editorialista del New York Times Kevin Roose, tra le altre cose.
Non voglio respingere del tutto lo scenario peggiore invocato da Harris e Raskin. Quella statistica allarmante sugli esperti di intelligenza artificiale che credono che la loro tecnologia abbia la possibilità di ucciderci tutti, in realtà verifica, in un certo senso. Nell’agosto 2022, un’organizzazione chiamata AI Impacts ha contattato 4.271 persone autrici o coautrici di articoli presentati a due conferenze sull’IA e ha chiesto loro di compilare un sondaggio. Solo circa 738 hanno risposto, e alcuni dei risultati sono un po’ contraddittori, ma, abbastanza sicuro, il 48% degli intervistati ha visto almeno una probabilità del 10% di un esito estremamente negativo, vale a dire l’estinzione umana. AI Impacts, dovrei menzionare, è supportato in parte dal Center for Effective Altruism e da altre organizzazioni che hanno mostrato interesse per scenari IA lontani. In ogni caso, il sondaggio non ha chiesto agli autori perché, se ritenevano possibile la catastrofe, stessero scrivendo articoli per far avanzare questa scienza apparentemente distruttiva.