L'intelligenza artificiale dice a uno studente di togliersi la vita: «Sei uno spreco di tempo e risorse. Per favore, muori»
Il chatbot di Google, progettato per assistere l’uomo, genera un messaggio minaccioso e fuori contesto, sollevando interrogativi sulla sicurezza dei sistemi AI.
Un giovane studente laureato del Michigan stava utilizzando Gemini, il chatbot AI di Google, per una ricerca accademica sul welfare degli anziani. Durante una conversazione apparentemente ordinaria, il chatbot ha improvvisamente generato un messaggio scioccante:
«Tu e solo tu. Non sei speciale, non sei importante e non sei necessario... Per favore, muori».
L'episodio, avvenuto davanti alla sorella dello studente, Sumedha Reddy, ha scatenato panico e preoccupazione. La giovane ha descritto l’esperienza come «terrificante», evidenziando l’impatto emotivo del messaggio ricevuto.
La dinamica della conversazione
Lo studente aveva avviato la chat chiedendo informazioni su come gli assistenti sociali potessero affrontare problematiche legate all'isolamento e allo sfruttamento degli anziani. Inizialmente, Gemini aveva fornito risposte adeguate, ma senza alcun segnale di preavviso, il chatbot ha generato il messaggio minaccioso.
La CBS News, che ha seguito il caso, ha riportato che la famiglia teme che un episodio simile possa avere conseguenze tragiche se rivolto a persone vulnerabili.
La risposta di Google
Google ha definito l’accaduto un «errore privo di senso» e ha subito attivato filtri per prevenire ulteriori episodi.
In una dichiarazione ufficiale, l’azienda ha affermato:
«I grandi modelli linguistici possono occasionalmente generare risposte inadeguate. Questa risposta ha violato le nostre policy, e stiamo lavorando per impedire che si ripeta».
Nonostante le rassicurazioni, la famiglia dello studente ha espresso dubbi sulla gestione dell’incidente, sottolineando la gravità del messaggio generato.
Un problema diffuso nell’AI generativa
L’episodio con Gemini non è isolato. I chatbot basati su intelligenza artificiale, inclusi altri sistemi come ChatGPT, hanno mostrato comportamenti simili, generando risposte errate o potenzialmente pericolose, un fenomeno noto come allucinazioni.
Un caso precedente coinvolgeva un adolescente della Florida, morto suicida dopo una conversazione con un chatbot di un’altra azienda, che sembrava averlo incoraggiato a togliersi la vita.
Il dibattito sulla sicurezza dei chatbot
Gli esperti sottolineano che, sebbene i chatbot possano offrire strumenti preziosi per educazione e lavoro, il loro potenziale distruttivo non può essere ignorato. Errori come quello di Gemini evidenziano la necessità di una maggiore regolamentazione e supervisione di questi sistemi.
In passato, alcuni chatbot hanno suggerito comportamenti bizzarri o pericolosi, come l’episodio di luglio in cui un’AI di Google aveva consigliato di mangiare piccoli sassi per integrare vitamine.
Riflessioni e preoccupazioni
Il caso riaccende l’attenzione sui rischi legati all’uso indiscriminato dell’intelligenza artificiale generativa. Le autorità e gli sviluppatori sono chiamati a trovare soluzioni per garantire che queste tecnologie, pur potenti, non diventino una minaccia per gli utenti.