Che succede quando i modelli di IA vanno in cortocircuito? I casi Gemini e ChatGPT ci ricordano che l’IA agisce all’interno della società.
I casi Gemini e ChatGPT: IA in cortocircuito
Lo scorso martedì 22 febbraio due tra i maggiori modelli di IA generativa sono andati in cortocircuito. Se Google, tra le maggiori BigTech mondiali, si è trovata costretta a sospendere temporaneamente Gemini dietro l’accusa di deep fake storico, OpenAI, la tech company finanziata da Microsoft, e recentemente coinvolta nel terremoto Sam Altman, è dovuta correre ai ripari per porre rimedio al “delirio-debug linguistico” di ChatGPT. In entrambi i casi, a segnalare i rispettivi “cortocircuiti” sono stati gli utenti che, interagendo con i due modelli di IA generativa, hanno riscontrato rispettivamente errori, inesattezze e giochi linguistici allucinatori.
Leggi anche:
Intelligenza Artificiale, la sfida di una lettura senza pregiudizi
Ma procediamo con ordine. Ripercorriamo il filo degli eventi e le relative implicazioni.
Il caso Gemini: il deepfake storico
Secondo Gemini, il modello di IA generativa firmato Google, tra le schiere dei soldati tedeschi durante la seconda guerra mondiale c’erano anche neri ed asiatici. L’errore, che risale al 22 febbraio scorso, ha del clamoroso. Come lo si può spiegare?
Evidentemente, durante la fase di training sugli enormi dataset a disposizione, qualcosa è andato storto. Ma non basta. Primo punto: Gemini non ha memoria storica. Secondo punto: sono necessarie delle regolamentazioni più ferree, perché un errore di questa portata, oltre a risate bonarie, suscita e deve suscitare preoccupazione. Anche se non è pericoloso in sé, lo diventa in relazione alle sue implicazioni, agli usi strategici a fini manipolatori e negazionisti. La nota a margine di Google, pubblicata su X, («Siamo consapevoli che Gemini offra inesattezze in alcune rappresentazioni storiche della generazione di immagini. Siamo al lavoro per risolvere il problema»), non può essere sufficiente a farci dormire sonni tranquilli.
Lasciando da parte ogni discorso complottistico contro l’IA, pensata in sé, caricaturalmente, come una forza extraterrestre destinata a soppiantare l’umanità (per intenderci alla Matrix), si auspicano due cose. Uno: che il caso Gemini contribuisca ad accelerare “dall’alto” i tempi tecnici di regolamentazione contro il deepfake. Due: che “dal basso”, ovvero tra gli utenti, ci si renda conto che il pensiero critico non può diventare demodé, soltanto perché è più “comodo” affidarsi ad un modello di IA. Le informazioni vanno verificate. L’esame critico delle fonti, l’attitudine alla ricerca, il rigore, la veridicità sono parole d’ordine che non possono scomparire dai radar dell’opinione pubblica perché «viviamo in una fantomatica era post-epistemica». Se è vero che diventerà sempre più difficile la task del distinguere il vero dal falso, fiction e realtà, dall’altra parte sembra ancora più vero (si perdoni il gioco di parole) che il saperlo fare, e il poterlo fare, saranno parametri sempre più discriminanti per acquisire una concreta agency pubblica.
Leggi anche:
Fake news: la cultura è l’unico antidoto
Il caso ChatGPT: debug e allucinazioni linguistiche
Risposte senza senso, bricolage linguistici, flussi di coscienza. Lo scorso 22 febbraio, ChatGPT, per cui non servono più presentazioni, si è cimentato in una serie di esercizi letterari alla Joyce, degni dei lettori più appassionati dell’Ulisse. Il chatbot, a cui generalmente ci si rivolge per le task più svariate, a partire dai riassunti fino al cantautorato (scrive anche canzoni) per i nostalgici sanremesi, non avrebbe certamente passato la temuta prova INVALSI d’italiano. Il problema di debug è stato risolto velocemente dall’azienda. OpenAI ha giustificato il malfunzionamento del sistema con l’avvio di una procedura di ottimizzazione, e l’ha risolto con un aggiornamento, ma il fatto resta. Cosa ci insegnano le allucinazioni linguistiche di ChatGPT? Che ad oggi non possiamo smettere di studiare grammatica, lessico e sintassi. Corretto, ma riduttivo. Che dietro alla schermata di default, con banner e tendine, c’è un sistema molto più complesso, frastagliato, fatto di aggiornamenti e ottimizzazioni, dataset, e procedimenti statistici.
Leggi anche:
Giornalismo e IA: sfide etiche, sociali e politiche
Sarebbe intellettualmente disonesto ridurre ChatGPT ad un pappagallo stocastico, ma non lo si può certamente equiparare, fuor di metafora, al genio di Joyce. Ma questo che significa?
ChatGPT produce contenuti sulla base di un’architettura software e hardware molto complessa, che vale milioni. Si tratta di un large language model, che non comprende il linguaggio, ma che sulla base del deep learning ci risponde per completamento, scandagliando semanticamente un’enorme quantità di informazioni in frazioni di secondo. Questo per sottolineare, al di là dei tecnicismi, che ciò vediamo interagendo con il chatbot non è che la punta dell’iceberg. La massa non sta in superficie.
L’IA dentro la società
Ogni volta che si riflette di IA bisogna ricordarsi di guardare sia a monte che a valle. Quali sono gli attori politici ed economici che ne gestiscono produzione, implementazione e distribuzione? Quali sono le sue implicazioni sociali ed etiche?
I chatbot non sono oracoli. Dobbiamo conoscerne l’architettura e non dismettere mai abiti di sorveglianza. L’oracolo di Delfi prescriveva di «conoscere noi stessi»: se l’introspezione è troppa ardua, quantomeno “conosciamo ciò che facciamo, e ciò che usiamo“.
Leggi anche:
I rischi dell’AI: da un futuro apocalittico a un presente incerto
Non abbiamo grandi editori alle spalle. Gli unici nostri padroni sono i lettori. Sostieni la cultura giovane, libera e indipendente: iscriviti al FR Club!
Segui Frammenti Rivista anche su Facebook e Instagram, e iscriviti alla nostra newsletter!