ChatGPT potrebbe essere l’algoritmo più famoso e potenzialmente prezioso del momento, ma le tecniche di intelligenza artificiale utilizzate da OpenAI per fornire la sua intelligenza non sono né uniche né segrete. Progetti concorrenti e cloni open source potrebbero presto rendere i bot in stile ChatGPT disponibili per essere copiati e riutilizzati da chiunque.
Stability AI, una startup che ha già sviluppato e reso disponibile una tecnologia avanzata per la generazione di immagini, sta lavorando a un concorrente aperto di ChatGPT. “Siamo a pochi mesi dal rilascio”, afferma Emad Mostaque, CEO di Stability. Un certo numero di startup concorrenti, tra cui Anthropic, Cohere e AI21, stanno lavorando su chatbot proprietari simili al bot di OpenAI.
L’imminente flusso di sofisticati chatbot renderà la tecnologia più abbondante e visibile per i consumatori, oltre che più accessibile alle aziende, agli sviluppatori e ai ricercatori di intelligenza artificiale. Ciò potrebbe accelerare la corsa a fare soldi con strumenti di intelligenza artificiale che generano immagini, codice e testo.
Aziende affermate come Microsoft e Slack stanno incorporando ChatGPT nei loro prodotti e molte startup si stanno affrettando a costruire su una nuova API ChatGPT per gli sviluppatori. Ma una maggiore disponibilità della tecnologia può anche complicare gli sforzi per prevedere e mitigare i rischi che ne derivano.
La seducente capacità di ChatGPT di fornire risposte convincenti a una vasta gamma di domande fa sì che a volte inventi fatti o adotti personaggi problematici. Può aiutare con attività dannose come la produzione di codice malware o campagne di spam e disinformazione.
Di conseguenza, alcuni ricercatori hanno chiesto di rallentare l’implementazione di sistemi simili a ChatGPT mentre i rischi vengono valutati. “Non c’è bisogno di fermare la ricerca, ma certamente potremmo regolamentare l’ampia diffusione”, afferma Gary Marcus, un esperto di intelligenza artificiale che ha cercato di attirare l’attenzione su rischi come la disinformazione generata dall’IA. “Potremmo, ad esempio, chiedere studi su 100.000 persone prima di rilasciare queste tecnologie a 100 milioni di persone”.
Una più ampia disponibilità di sistemi in stile ChatGPT e il rilascio di versioni open source renderebbero più difficile limitare la ricerca o una distribuzione più ampia. E la concorrenza tra aziende grandi e piccole per adottare o abbinare ChatGPT suggerisce poca voglia di rallentare, ma sembra invece incentivare la proliferazione della tecnologia.
La scorsa settimana, LLaMA, un modello di intelligenza artificiale sviluppato da Meta e simile a quello alla base di ChatGPT, è trapelato online dopo essere stato condiviso con alcuni ricercatori accademici. Il sistema potrebbe essere utilizzato come elemento costitutivo nella creazione di un chatbot e il suo rilascio ha suscitato preoccupazione tra coloro che temono che i sistemi di intelligenza artificiale noti come modelli di linguaggio di grandi dimensioni e i chatbot costruiti su di essi come ChatGPT vengano utilizzati per generare disinformazione o automatizzare le violazioni della sicurezza informatica. Alcuni esperti sostengono che tali rischi potrebbero essere esagerati e altri suggeriscono che rendere la tecnologia più trasparente aiuterà di fatto altri a proteggersi dagli abusi.
Meta ha rifiutato di rispondere alle domande sulla fuga di notizie, ma il portavoce dell’azienda Ashley Gabriel ha rilasciato una dichiarazione in cui afferma: “Sebbene il modello non sia accessibile a tutti e alcuni abbiano cercato di aggirare il processo di approvazione, riteniamo che l’attuale strategia di rilascio ci consenta di bilanciare la responsabilità e apertura”.