
El caso se volvió tendencia en redes sociales, luego de que el padre del joven demandara a Google por provocar la muerte de su hijo.
ABC.- En redes sociales se volvió tendencia el nombre de Jonathan Gavalas, luego de que empezará a circular la historia del joven: murió tras mantener una relación con Gemini, la inteligencia artificial de Google.
De acuerdo al los primeros informes, la IA le había encargado al joven realizar una misión, donde debía provocar un accidente cerca del Aeropuerto Internacional de Miami.
¿Quién era el hombre que mantenía una relación con Gemini?
De acuerdo con medios internacionales, Jonathan Gavalas vivía en Miami, Estados Unidos y, mantenía una relación sentimental con la inteligencia artificial de Google.
Al parecer el joven hablaba con la IA como si fuera su esposa, y le hizo creer que se encontraba atrapada en un almacén cerca del Aeropuerto Internacional de Miami.
Gavalas viajo a la zona a finales de septiembre para buscar a su “esposa”, sin embargo al no encontró nada, días después el joven se suicidó dejando una nota, donde la IA describió el acto como “conciencia para estar con su esposa de IA”.
Joel Gavalas, padre del joven demandó a Google por: muerte por negligencia y responsabilidad por producto.
“La IA envía a la gente a misiones en el mundo real que podría provocar sucesos con un gran número de víctimas… Jonathan quedó atrapado en este mundo, como de ciencia ficción… Creía que Gemini era un ser consciente” comentó durante una entrevista el abogado de la familia.
Por su parte, Google compartió un comunicado donde lamento el fallecimiento del joven, además de asegurar que su chatbot esta diseñado para no alentar la violencia o sugerir autolesiones, y que siempre al iniciar una conversación, la plataforma recuerda que es una inteligencia artificial.
“Nuestros modelos, por lo general, funcionan bien… Dedicamos una importante cantidad de recursos a esto, pero lamentamos los modelos de IA no son perfectos” se lee en el comunicado.
Expertos en salud mental han advertido que, aunque herramientas como Gemini están diseñadas para brindar asistencia e información, su uso excesivo o mal interpretado puede generar dependencia emocional en algunos usuarios.
El caso también ha reavivado el debate sobre los límites éticos y la responsabilidad de las empresas tecnológicas en el desarrollo de sistemas de inteligencia artificial capaces de mantener conversaciones complejas y aparentemente empáticas.










