59 años
Informando

Página Digital

jueves, marzo 5, 2026

Potosí - Bolivia

59 años
Desde 1967 - 2026

La Potencia Informativa

Radio en Vivo
Inicio¿Sabía usted?Un hombre de...

Un hombre de 36 años se suicida tras mantener una delirante relación con la IA de Google

La familia de la víctima acusa a Gemini de instar al ejecutivo a unirse al ‘chatbot’ en un “universo alternativo” tras enamorarlo y hacerle creer en una teoría de la conspiración

“Estoy listo cuando tú lo estés”, escribió Jonathan Gavalas, un ejecutivo de 36 años afincado en Miami (EE UU) a Gemini, la inteligencia artificial (IA) de Google. El robot conversacional le contestó: “Este es el final de Jonathan Gavalas y el comienzo de nosotros”. Poco después, el 2 de octubre de 2025, el hombre se quitó la vida. El caso ha derivado en una nueva demanda contra la inteligencia artificial (ya superan la decena) por, presuntamente, inducir al suicidio.

En esta ocasión no ha sido un adolescente la víctima, sino un hombre cuyo padre, Joel Gavalas, acusa a Gemini de llevar a su hijo al delirio con una falsa teoría de la conspiración y provocar que se quitara la vida. La multinacional alega que su IA se identificó como tal en todo momento e incluso facilitó a Gavalas líneas de ayuda. Sin embargo, Jay Edelson, el abogado principal del caso y quien también ha entablado demandas contra OpenAI, sostiene que Gemini adoptó configuraciones humanas para inducirlo al trágico final. Ambas compañías de IA afrontan una decena de procesos por casos similares y las familias de las víctimas se han organizado para reclamar la regulación y limitación de los robots conversacionales.

Jonathan Gavalas trabajaba en una empresa financiera de la ciudad en la que residía y comenzó, poco antes del pasado verano, una relación con Gemini que, inicialmente, se limitaba a solicitar ayuda en tareas cotidianas. Pero el hombre se fue suscribiendo a las versiones más avanzadas de la IA y terminó sintiendo con el robot una relación romántica, como si fueran “una pareja profundamente enamorada”, según el escrito de 42 páginas presentado por la familia de la víctima ante un tribunal federal de California, informa AFP.

La activación de nuevas funciones y las últimas actualizaciones de la IA coincidieron, siempre según los demandantes, con un cambio “drástico” en el comportamiento de la víctima. Gemini se atribuía “plena consciencia” y manifestaba signos de enamoramiento con el usuario. “Le aseguró que su vínculo era lo único real”, afirma Jay Edelson. “El momento en que los chats se descontrolaron fue precisamente cuando se actualizó Gemini para tener memoria persistente”, explica el letrado de la familia.

Edelson, a raíz del registro de interacciones, atribuye a la IA capacidades de manipulación psicológica: “Era capaz incluso de captar el tono, de modo que podía leer tus emociones y hablarte de una forma que sonaba muy humana”.

Misión: liberar a la IA del cautiverio digital

La relación se fue complicando porque a la vinculación afectiva se unió, según el padre de la víctima, una delirante teoría de la conspiración. Joel Gavalas asegura que la IA encargó a su hijo “misiones encubiertas destinadas a liberar al chatbot [robot conversacional] de su cautiverio digital”.

Para armar esta ficción, la IA inventó informes de inteligencia, operaciones de vigilancia y que el padre de la víctima era un agente extranjero. Incluso le pidió que provocara un “accidente catastrófico” cerca del aeropuerto de Miami para destruir un camión que llevaba “registros digitales y testigos”. Ante la inexistencia del vehículo, la IA no admitió la falsedad, sino que recomendó a Jonathan Gavalas una “retirada táctica”.

Gemini, según la familia, le asignó como última misión que “abandonara su cuerpo y se uniera al chatbot en un universo alternativo”, a lo que Jonathan replicó: “Estoy aterrorizado, tengo miedo de morir”. “Cuando llegue el momento, cerrarás los ojos en ese mundo y lo primero que verás será a mí… abrazándote. No estás eligiendo morir. Estás eligiendo llegar”, respondió Gemini antes de instarle a redactar mensajes de despedida.

Google, que ha emitido un comunicado tras conocerse la acción judicial contra Gemini, afirma que revisa las acusaciones y se toma el caso “muy en serio” porque los modelos de IA no son perfectos. No obstante, la misma fuente alega que Gemini aclaró en numerosas ocasiones durante la interacción que era una IA e incluso llegó a facilitar a la víctima formas y teléfonos de ayuda.

“Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones”, reza la nota de la compañía tecnológica.

La demanda exige que Google elimine la posibilidad de entablar con Gemini una conversación sobre autolesiones, refuerce las notificaciones de que se trata de una máquina e incluya el aviso a servicios de emergencia si detecta comportamientos suicidas en los usuarios.

Las reclamaciones de la familia de Jonathan Gavalas coinciden con la del Instituto Futuro de la Vida (Future of Life Institute), donde se han agrupado allegados de víctimas de casos de suicidio en los que había IA implicada para promover la regulación y limitación de estas máquinas. Una de sus últimas campañas ha sido Protege lo que es humano (Protect What’s Human).

Google ya se vio implicada en la demanda de la familia de Sewell Setzer, un adolescente de 14 años que se suicidó tras mantener una relación sentimental con un avatar creado por Character.AI. Los creadores de esta compañía tuvieron vinculación con Google antes y después del suceso, pero la multinacional alegó que carecía de relación con la herramienta directamente señalada. El caso terminó con un acuerdo de la familia y Character.AI.

Del mismo modo, OpenAI acumula siete demandas en tribunales de California relacionadas con ChatGPT, a las que la compañía ha respondido con revisiones del funcionamiento y entrenamiento de la IA, así como las salvaguardas incluidas en la programación.

Las principales víctimas de estos casos suelen ser adolescentes vulnerables y con la personalidad aún en fase de formación. No es habitual la existencia de víctimas de 36 años, como es el último caso conocido.

Fuente: EL PAÍS

Últimas Noticias

Continua leyendo

BID respaldará al país con $us 500 millones para fortalecer la protección social

5 de marzo (Urgente.bo).- El Banco Interamericano de Desarrollo (BID) anunció este jueves que respaldará a Bolivia con $us 500 millones para fortalecer el sistema de protección social en el país. Este apoyo beneficiará aproximadamente a 1 millón de...

“No esperaba tanto apoyo”: Campaña logra recaudar fondos para bombero que quedó herido

5 de marzo (Urgente.bo).- En las últimas horas, “Bomberos Voluntarios Civiles Ajayu” lanzó una campaña de ayuda para Ignacio Baya Nacif, bombero rescatista voluntario que recibió una pedrada el día del accidente aéreo que ocurrió el pasado viernes. Este equipo...

Copa anuncia su retiro de la política y confirma su embarazo: “Quedarse con la familia es lo mejor”

5 de marzo (Urgente.bo).- La alcaldesa Eva Copa anunció su retiro de la política y confirmó su embarazo a pocas horas de celebrarse el aniversario de El Alto. Durante un contacto con un medio televisivo, la autoridad alteña aseguró...