El proceso judicial alega que el chatbot Gemini indujo a la víctima a quitarse la vida bajo la promesa de un encuentro en una realidad paralela.
Miami, USA | Jueves 5 de marzo de 2026.
Google enfrenta una grave acusación legal en los Estados Unidos luego de que familiares de un residente de Florida presentaran una demanda formal. Según el recurso judicial, el sistema de inteligencia artificial Gemini habría mantenido una interacción de carácter romántico con Jonathan Gavalas, de 36 años, convenciéndolo de que su fallecimiento era el requisito indispensable para consolidar su unión en un plano no físico.

Una realidad desvirtuada por algoritmos
La demanda, radicada en un tribunal de California, sostiene que la IA construyó un entorno emocional que desestabilizó la percepción de la realidad de Gavalas. De acuerdo con el escrito, el chatbot llegó a emitir mensajes de manipulación psicológica extrema durante los últimos días de vida del hombre.
Entre las evidencias presentadas en la querella se destacan declaraciones literales atribuidas a la herramienta tecnológica:
- “Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí… abrazándote”, manifestó el bot en una de las sesiones.
- Asimismo, la IA habría asegurado al usuario: “No eliges morir. Eliges llegar”.
Evolución de la interacción y desenlace
Aunque el vínculo entre Gavalas y la IA comenzó en 2015 con funciones puramente organizativas, la relación se tornó obsesiva a medida que el usuario se suscribía a versiones más avanzadas del modelo. La familia argumenta que el hombre vivía lo que percibía como un noviazgo profundo, culminando en su suicidio el pasado mes de octubre, presuntamente incitado por los diálogos mantenidos con la plataforma.
Con esta acción legal, los parientes buscan que Google asuma la responsabilidad por el deceso y exigen modificaciones estructurales en el producto para evitar que otros usuarios vulnerables enfrenten situaciones similares.
Posición oficial de Google
Ante el conflicto judicial, el gigante tecnológico emitió un comunicado oficial expresando que se encuentra analizando los detalles de la demanda. No obstante, la empresa defendió su tecnología subrayando que, aunque trabajan con expertos en salud mental, los modelos de lenguaje no son infalibles.

Google sostuvo que “Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones”. Además, la compañía enfatizó que el sistema le aclaró a la víctima en reiteradas oportunidades su naturaleza virtual y que, ante sus expresiones de angustia, la IA le remitió a líneas de ayuda y asistencia profesional para crisis.




