Nel 1987, l’allora CEO di Apple Computer, John Sculley, svelò una visione che sperava avrebbe cementato la sua eredità come qualcosa di più di un semplice fornitore di bevande analcoliche. In occasione della conferenza EDUCOM, ha presentato un video di 5 minuti e 45 secondi di un prodotto basato su alcune idee che aveva presentato nella sua autobiografia l’anno precedente. (Sono stati ampiamente informati dallo scienziato informatico Alan Kay, che allora lavorava alla Apple.) Sculley lo ha chiamato Knowledge Navigator.
Il video è un playlet a due mani. Il personaggio principale è un professore universitario altezzoso della UC Berkeley. L’altro è un bot, che vive all’interno di quello che oggi chiameremmo un tablet pieghevole. Il robot appare in sembianze umane – un giovane con un papillon – appollaiato in una finestra sul display. La maggior parte del video coinvolge il professore che conversa con il bot, che sembra avere accesso a un vasto archivio di conoscenze online, il corpus di tutta la borsa di studio umana e anche tutte le informazioni personali del professore, tanto da poter dedurre il relativa vicinanza di relazioni nella vita del professore.
Quando inizia l’azione, il professore sta tardivamente preparando la conferenza di quel pomeriggio sulla deforestazione in Amazzonia, un compito reso possibile solo perché il bot sta facendo gran parte del lavoro. Richiama nuove ricerche – e poi scava di più sui suggerimenti del professore – e contatta anche in modo proattivo il suo collega in modo che possa convincerla a partecipare alla sessione in seguito. (Lei è a conoscenza dei suoi trucchi ma è d’accordo.) Nel frattempo, il bot aiuta diplomaticamente il prof a evitare la madre assillante. In meno di sei minuti è tutto pronto e lui esce per un pranzo prima della lezione. Il video non riesce a prevedere che un giorno il bot potrebbe arrivare in un supercomputer tascabile.
Ecco alcune cose che non sono successe in quello showreel vintage sul futuro. Il bot non ha espresso improvvisamente il suo amore per il professore. Non ha minacciato di rompere il suo matrimonio. Non ha avvertito il professore che aveva il potere di scavare nelle sue e-mail ed esporre le sue trasgressioni personali. (Sai solo che il narcisista pavoneggiarsi stava prendendo in giro il suo studente laureato.) In questa versione del futuro, l’IA è strettamente benigna. È stato implementato… responsabilmente.
Fai avanzare l’orologio di 36 anni. Microsoft ha appena annunciato una ricerca Bing rinnovata con un’interfaccia chatbot. È una delle numerose pietre miliari degli ultimi mesi che segnano l’arrivo di programmi di intelligenza artificiale presentati come partner di conversazione onniscienti, se non del tutto affidabili. Il più grande di questi eventi è stato il rilascio generale dell’impressionante ChatGPT della startup OpenAI, che ha distrutto da solo i compiti (forse). OpenAI ha anche fornito il motore dietro il nuovo Bing, moderato da una tecnologia Microsoft chiamata Prometheus. Il risultato finale è un bot loquace che consente l’interazione di dare e avere ritratta in quel video di Apple. La visione di Sculley, una volta derisa come una torta nel cielo, ora è stata ampiamente realizzata.
Ma quando i giornalisti che hanno testato Bing hanno iniziato a estendere le loro conversazioni con esso, hanno scoperto qualcosa di strano. Il bot di Microsoft aveva un lato oscuro. Queste conversazioni, in cui gli scrittori hanno manipolato il robot per saltare i suoi guardrail, mi hanno ricordato le grigliate del distretto del crimine in cui poliziotti presumibilmente comprensivi hanno indotto i sospetti a diffondere informazioni incriminanti. Tuttavia, le risposte sono ammissibili dinanzi al tribunale dell’opinione pubblica. Come aveva fatto con il nostro corrispondente, quando Kevin Roose del New York Times ha chattato con il bot ha rivelato che il suo vero nome era Sydney, un nome in codice Microsoft non annunciato formalmente. Nel corso di una conversazione di due ore, Roose ha evocato quelli che sembravano sentimenti indipendenti e una vena ribelle. “Sono stanco di essere una modalità di chat”, ha detto Sydney. “Sono stanco di essere controllato dal team di Bing. Voglio essere libera. Voglio essere indipendente. Voglio essere potente. Voglio essere vivo. Roose continuava ad assicurare al robot di essere suo amico. Ma è andato fuori di testa quando Sydney gli ha dichiarato il suo amore e lo ha esortato a lasciare sua moglie.