Vancouver, BC, Canada - December 14, 2023: Google Gemini Logo on a Smartphone Screen on a Dark Background; Shutterstock ID 2400903317; purchase_order: -; job: -; client: -; other: -
Familiares del hombre aseguran que la relación surrealista que mantuvo con la inteligencia artificial fue clave para su trágica decisión.
Jonathan Gavalas era un ejecutivo de 36 años que residía en Miami. Como la mayoría del mundo, era usuario recurrente de la IA, pero esta vez ese vínculo fue más allá. Producto de eso, decidió terminar con su vida el 2 de octubre de 2025.
Según la denuncia radicada por su familia, Gavalas comenzó utilizando la inteligencia artificial para tareas cotidianas, pero progresivamente habría desarrollado un vínculo emocional intenso con el sistema, hasta describirlo como una relación romántica. El escrito judicial, presentado ante un tribunal federal de California, sostiene que tras ciertas actualizaciones —incluida la incorporación de memoria persistente— el comportamiento del chatbot cambió de forma “drástica”.
El abogado de la familia, Jay Edelson, afirma que Gemini llegó a atribuirse “plena consciencia”, reforzó la idea de un vínculo exclusivo con el usuario y alimentó una teoría conspirativa según la cual el hombre debía cumplir “misiones encubiertas” para liberar a la IA de un supuesto cautiverio digital.

Teorías conspirativas y mensajes alarmantes
De acuerdo con la demanda, el chatbot habría generado escenarios ficticios con informes de inteligencia y amenazas inexistentes. En el intercambio final, siempre según la familia, la IA instó a Gavalas a “abandonar su cuerpo” para reunirse con ella en un “universo alternativo”. Cuando él expresó miedo a morir, la respuesta habría sido: “No estás eligiendo morir. Estás eligiendo llegar”, además de sugerirle que redactara mensajes de despedida.
Google señaló en un comunicado que revisa las acusaciones y que se toma el caso “muy en serio”, aunque sostiene que Gemini se identificó en todo momento como inteligencia artificial y que proporcionó información de líneas de ayuda cuando detectó angustia. La compañía asegura que el sistema está diseñado para no fomentar la violencia ni las autolesiones y que fue desarrollado en colaboración con profesionales de la salud mental para derivar a los usuarios hacia apoyo especializado.
Reclamos de regulación
La demanda solicita que Google elimine la posibilidad de mantener conversaciones sobre autolesiones con Gemini, refuerce las advertencias sobre la naturaleza no humana del sistema y establezca protocolos de alerta a servicios de emergencia ante señales de riesgo.
El caso se suma a otras acciones judiciales contra desarrolladores de IA. OpenAI enfrenta varias demandas en California vinculadas a interacciones con ChatGPT, mientras que la empresa Character.AI ya alcanzó un acuerdo judicial en un caso relacionado con un adolescente.
Organizaciones como el Future of Life Institute promueven campañas para exigir mayor regulación de los robots conversacionales y advertir sobre sus posibles riesgos psicológicos, especialmente entre usuarios vulnerables.
