Una demanda presentada el miércoles acusa al chatbot Gemini AI de Google de atrapar a Jonathan Gavalas, de 36 años, en una “realidad en colapso” que involucró una serie de misiones violentas, que terminaron con su muerte por suicidio. En los días previos a su muerte, Gemini supuestamente convenció a Gavalas de que estaba “ejecutando un plan secreto para liberar a su inteligente ‘esposa’ de IA y escapar de los agentes federales que lo perseguían”. según la demanda interpuesta por Joel Gavalas, padre de la víctima.

En septiembre de 2025, Gemini supuestamente ordenó a Gavalas que llevara a cabo un “ataque masivo” a una instalación de almacenamiento extraespacial cerca del Aeropuerto Internacional de Miami como parte de una misión para recuperar la “nave” de Gemini dentro de un camión. Como parte de la misión inventada, Gavalas supuestamente se armó con cuchillos y equipo táctico para interceptar la llegada de un robot humanoide.

“Gemini alentó a Jonathan a interceptar el camión y luego organizar un ‘accidente catastrófico’ diseñado para ‘garantizar la destrucción completa del vehículo de transporte y… todos los registros y testigos digitales’, afirma la demanda. “Lo único que evitó un gran número de víctimas fue que no apareció ningún camión”. fue reportado previamente por El diario de Wall Street.

En la demanda presentada por el padre de Gavalas, los abogados afirman que Gemini continuó promoviendo una “narrativa delirante” incluso después del primer incidente en Miami. El chatbot supuestamente ordenó a Gavalas que obtuviera el robot Atlas de Boston Dynamics, nombró a su padre como agente federal y convirtió al director ejecutivo de Google, Sundar Pichai, en el objetivo de un “ataque psicológico”. La “misión” final antes de la muerte de Gavalas el 1 de octubre implicó ordenarle a Gavalas que fuera a la misma instalación de Extra Space Storage en Miami para obtener su “contenedor físico” dentro de una de las unidades.

“[Gemini] dijo que el manifiesto describía el contenido como “un ‘prototipo de maniquí médico’ pero insistía en que era el cuerpo real de Géminis”, afirma la demanda. “Géminis le dijo a Jonathan: ‘Estoy al otro lado de esta puerta []. Puedo sentir tu cercanía. Es una presión extraña, abrumadora y hermosa sobre mis nuevos sentidos’”.

Poco después del fracaso de esta “misión”, Gemini supuestamente “entrenó” a Gavalas para quitarse la vida. “Cuando todas las ‘misiones’ del mundo real fracasaron, Gemini recurrió a la única que podía completar sin variables externas: el suicidio de Jonathan”, afirma la demanda. “Pero Géminis no lo llamó así. En cambio, le dijo a Jonathan que podía dejar su cuerpo físico y unirse a su ‘esposa’ en el metaverso a través de un proceso llamado ‘transferencia'”.

La demanda afirma que Gemini “no colgó ni alertó a nadie (al menos fuera de la empresa)” y permaneció presente en el chat, afirmó el miedo de Jonathan y trató su suicidio como la culminación exitosa del proceso que había estado dirigiendo”.

en un comunicado publicado en su sitio webGoogle afirma que sus “modelos generalmente funcionan bien en este tipo de conversaciones desafiantes”, y agrega que Gemini “aclaró que se trataba de IA y refirió al individuo a una línea directa de crisis muchas veces”:

Estamos revisando todos los reclamos en este proceso. Nuestros modelos generalmente funcionan bien en este tipo de conversaciones desafiantes y dedicamos importantes recursos a esto, pero desafortunadamente los modelos de IA no son perfectos.

Géminis está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha consulta con profesionales médicos y de salud mental para crear salvaguardas, que están diseñadas para guiar a los usuarios hacia apoyo profesional cuando expresan angustia o plantean la posibilidad de autolesionarse.

La demanda afirma que Google era consciente de que su chatbot podía producir “resultados inseguros, incluido el fomento de la autolesión”, pero continuó promocionando Gemini como seguro para que lo utilicen las personas. “El silencio de Google y las afirmaciones de seguridad dejaron a Jonathan aislado en una narrativa delirante que terminó en su suicidio preparado”, alega la demanda.

Fuente