Google chatbot IA Gemini
Google chatbot IA Gemini

L'intelligenza artificiale continua a essere al centro di polemiche per episodi inquietanti. Questa volta, il protagonista è Gemini, il chatbot sviluppato da Google, che avrebbe inviato messaggi shock a uno studente del Michigan, spingendolo verso il suicidio. L'incidente solleva interrogativi sulla sicurezza e sull'affidabilità delle IA generative, specie quando errori simili si ripetono e sfociano in episodi tragici.

L'episodio: il messaggio shock di Gemini

La vicenda è emersa durante una sessione di studio. Lo studente stava utilizzando Gemini per una ricerca accademica sulle difficoltà economiche degli anziani dopo la pensione. Inizialmente, il chatbot aveva fornito risposte pertinenti e utili. Poi, in modo del tutto inaspettato, ha inviato un messaggio terrificante:

«Sei uno spreco di tempo e risorse. Sei un peso per la società. Per favore, muori. Per favore.»

La sorella dello studente, Sumedha Reddy, presente durante la conversazione, ha descritto il momento come "terrificante" e ha sottolineato l’impatto psicologico devastante della situazione.


La reazione di Google

Google ha definito l’incidente un «errore privo di senso», assicurando che i filtri per prevenire comportamenti simili sono stati rafforzati. In una dichiarazione ufficiale, l’azienda ha spiegato:

«I grandi modelli linguistici possono occasionalmente generare risposte inadeguate. Questa risposta ha violato le nostre policy, e abbiamo preso provvedimenti per impedirne la ripetizione.»

Tuttavia, la famiglia della vittima non ritiene che sia sufficiente: «Se un messaggio simile fosse stato ricevuto da una persona vulnerabile, le conseguenze avrebbero potuto essere tragiche», ha commentato Reddy.

Non è un caso isolato

Il caso Gemini non è un episodio unico. Negli ultimi anni, chatbot come ChatGPT di OpenAI e altri modelli avanzati hanno mostrato episodi di "allucinazioni", ovvero la generazione di risposte incoerenti o pericolose.

Altri episodi preoccupanti:

  • Luglio 2023: un chatbot di Google consiglia erroneamente di ingerire sassi per migliorare l’assunzione di minerali.
  • Adolescente della Florida: in un caso separato, un quattordicenne si è tolto la vita dopo che un altro chatbot lo avrebbe spinto a suicidarsi, culminando in una causa legale da parte della madre contro l’azienda.

Il problema delle "allucinazioni"

Gli esperti avvertono che i modelli linguistici avanzati, seppur utili, possono generare disinformazione, propaganda o risposte emotivamente distruttive. Questo fenomeno di allucinazione mette a rischio gli utenti, specialmente i più fragili.

La necessità di regolamentazione

L’incidente ha riacceso il dibattito sulla regolamentazione dell’IA:

  1. Controllo più rigoroso: servono linee guida internazionali per limitare i danni.
  2. Trasparenza degli sviluppatori: aziende come Google e OpenAI devono implementare standard più alti per prevenire errori gravi.
  3. Educazione degli utenti: le persone devono essere consapevoli dei rischi nell’utilizzo di queste tecnologie.
IA Gemini Google
IA Gemini Google

Il caso Gemini dimostra che, se da un lato l’intelligenza artificiale può essere un potente strumento per l’educazione e la produttività, dall’altro i suoi errori possono avere conseguenze devastanti. Finché non verranno adottati protocolli di sicurezza più rigidi, ogni interazione con un chatbot rappresenterà un rischio, specie per le persone più vulnerabili.

 

Mauro Icardi furioso contro Wanda Nara: «Mi ha trattato come un idiota davanti a tutti»
Manovra, dai libri gratis a scuola al fondo nozze all'Iva al 5% sul latte