L’intelligenza artificiale è spinta dai colossi tecnologici in una gara quotidiana, ma il futuro di questa tecnologia è ancora tutto da scrivere e perfezionare. Come dimostrano le ultime defaillance dei due modelli più popolari, quello di Google e di OpenAI. Il primo, Gemini, è stato sospeso dopo la creazione di immagini con evidenti errori storici; il secondo, ChatGpt, è andato in confusione per qualche ora. Criticità già mostrate che rendono sempre più attuale il dibattito sulle regole. Tanto che alcuni accademici lanciano la suggestiva proposta di un ‘kill switch’, un tasto per interrompere l’IA, come accade per le armi nucleari. “Stiamo già lavorando per risolvere i recenti problemi con Gemini.
Mettiamo in pausa la generazione delle immagini di persone, presto pubblicheremo una versione migliorata”, ha reso noto Google in queste ore dopo una serie di segnalazioni di utenti negli Stati Uniti. Alla richiesta di creare immagini storiche, di soldati e cavalieri, il modello di intelligenza artificiale ha restuito foto create dall’IA con evidenti errori di etnia, mostrando in particolare una difficoltà con persone dalla pelle bianca. L’ingegnere Frank J. Fleming ha raccontato la sua esperienza su X: ha chiesto l’immagine generica di un Papa, Gemini ha prodotto un pontefice nero e una donna asiatica in abiti ecclesiastici.
Errori che confermano come i sistemi di intelligenza artificiale possono avere allucinazioni, ereditare pregiudizi o sovvertimento di stereotitpi, degli esseri umani che li addestrano. Già un anno fa, in occasione di una presentazione pubblica, l’IA di Google fece un errore sul James Webb Space Telescope notato da diversi astronomi e perse in Borsa. Anche ChatGpt, il chatbot sulla bocca di tutti, nelle ultime ore non si è sentito molto bene. Diversi utenti hanno segnalato risposte sensa senso, metà in inglese e metà in spagnolo dando l’impressione che fosse in confusione.
A detta di OpenAI, l’azienda che l’ha creato, le anomalie sarebbero state causate da un intervento di “ottimizzazione” della piattaforma. Solo un successivo aggiornamento ha risolto la questione. Anche per questo software non è la prima defaillance. A dicembre scorso gli utenti avevano segnalato una sorta di pigrizia, con il chatbot risultato meno proattivo e propenso a fornire risposte sbagliate. Lo sviluppo di questa tecnologia e le relative regole è tema di dibattito tra politici, esperti e addetti ai lavori. Di recente un gruppo di accademici, tra cui ricercatori dell’Università di Cambridge, ha proposto una soluzione: inserire un pulsante, un ‘kill switch’, all’interno dell’hardware che alimenta l’IA per interrompere eventuali abusi o scenari distopici. Esattamente come accade per fermare il lancio non autorizzato di armi nucleari.
Uno strumento suggestivo che però, come osservano gli stessi ricercatori, potrebbe ritorcersi contro impedendo, se usato male o nelle mani sbagliate, lo sviluppo dell’intelligenza artificiale. Inoltre, il documento presenta un conflitto di interessi: vi hanno contributito alcuni ricercatori di OpenAI, una delle aziende che al momento regola il mercato dell’IA.