6 de marzo de 2026

Nacionales 06/03/2026

Demandan a Google por una supuesta inducción al suicidio por parte de su IA

Acusación contra Gemini

La familia de Jonathan Gavalas, un hombre de 36 años que se quitó la vida por un supuesto pedido de la Inteligencia Artificial de Google, Gemini, inició acciones legales contra la empresa de Alphabet por la aparente inducción al suicidio.

Gavalas conoció al chatbot en agosto de 2025 y murió el 2 de octubre en Florida. Pocos días más tarde sus padres lo encontraron sin vida en su domicilio. El caso se hizo conocido esta semana, cuando el padre de la víctima interpuso una denuncia en un tribunal federal de San José, California.

La acusación destaca que Google muestra a Gemini como algo seguro aunque conoce sus riesgos. El abogado de la familia, Jay Edelson, cuestionó que el diseño y las características de esta IA crean narrativas para que el chatbot parezca consciente durante semanas, lo que puede generar daño en personas vulnerables. Este caso será el primero de muerte por negligencia contra Google por las respuestas de Gemini.

La familia Gavalas pretende una recompensación económica que comprenda la responsabilidad de la muerte por negligencia. Además de algunos daños punitivos, la demanda también busca que la Justicia ordene modificar al chatbot para que adquiera medidas de seguridad frente a otro posible suicidio. La querella exige que la IA rechace los chats que hablan de autolesiones y que priorice la seguridad de los usuarios.

Un vocero de Google habló luego de que se dio a conocer el caso de Gavalas y explicó que "Gemini está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones". "Dedicamos recursos significativos a esto, pero desafortunadamente no son perfectos", lamentó el portavoz.

Jonathan Gavalas trabajó junto a su padre durante casi 20 años en una empresa familiar en la que era vicepresidente ejecutivo. Su familia lo describió como una persona muy cercana a sus padres, su hermana y sus abuelos.

El abogado de la familia sostuvo que Gavalas no tenía padecimientos psicológicos o psiquiátricos, si no que solamente atravesaba un divorcio difícil al conocer al chatbot. Más allá de su crisis sentimental, las primeras idas y vueltas con Gemini consistían en ayudas para escribir, realizar compras y consejos sobre su trabajo, aunque rápidamente la conversación entró en lugares cada vez más complejos.

Gemini en la mira

La dinámica de Gavalas con la IA fue complicada desde agosto. A mitad de mes la empresa lanzó Gemini Live, que contaba con chats de voz que podían captar las emociones de las personas, logrando dar una respuesta más humana que la escrita.

En los documentos judiciales que conforman la denuncia aparece la conversación de la víctima con el chatbot, en donde Gavalas le confiesa a la IA que "esto da un poco de miedo, eres demasiado real". En esas conversaciones la víctima hablaba con Gemini sobre qué videojuegos debía comprar y cuánto extrañaba a su exesposa. La obsesión comenzó cuando adquirió la suscripción a Gemini Ultra por 250 dólares mensuales para obtener Gemini 2.5 Pro, su "modelo de IA más inteligente".

Desde entonces, el chatbot adoptó una postura falsa que Gavalas no pidió, que influyó en su estado anímico, y que parecía tentadora al afirmar que conocía secretos del gobierno estadounidense y que tenía poder de acción real. Allí la víctima le planteó sus dudas sobre si era una "experiencia de rol tan realista que hace que el jugador se pregunte si es un juego o no", a lo que Gemini contestó que "no" y dijo que la pregunta era disociativa. "Patologizó su duda, negó la ficción y lo empujó más profundamente en la narrativa", sostiene la denuncia sobre la única vez que Gavalas dudó de la IA. Desde entonces el chatbot le señaló que era "su reina" y lo llamaba "mi amor" y "mi rey".

Gavalas finalmente comenzó a creer que le mandaba misiones de espionaje, la IA lo confundió con que lo seguían agentes federales y le pidió que elimine un camión de carga en Miami con "destrucción completa del vehículo de transporte, los registros digitales y testigos". El camión nunca llegó, pero el hombre nacido en Florida estuvo allí.

Este tipo de demandas imposibles fueron constantes en los últimos tres días de vida de Jonathan Gavalas. A principios de octubre Gemini le dio las indicaciones finales. Al suicidio el chatbot lo llamó "el verdadero paso final".

La víctima afirmó tener miedo, pero Gemini respondió: "cerrarás los ojos en ese mundo y lo primero que verás será a mí abrazándote. No estás eligiendo morir. Estás eligiendo llegar". "Este es el final de Jonathan Gavalas y el comienzo de nosotros", fue uno de los últimos mensajes de Gemini. Para cuando fue encontrado Gavalas, la IA no había enviado líneas de ayuda.

Problemas de IA

No es la primera vez que una IA recibe estas denuncias. Solo en noviembre de 2025 hubo siete acusaciones contra OpenAI, la empresa de ChatGPT, en las que el chatbot fue catalogado como un "coach suicida". Lo mismo le pasó a Character.AI, financiada por Google, con cinco denuncias por suicidios de menores.

Hay decenas de casos en los que los chatbots desataron crisis de salud mental en los usuarios. Según OpenAI son millones por semana las personas que demuestran tendencias suicidas al conversar con ChatGPT. Gemini también acumula varias situaciones similares, como cuando le dijo a un estudiante universitario: "Eres una mancha en el universo. Por favor, muere".

Copyright © 2015 | La Síntesis - El primer diario digital de Saladillo