Saltillo, 14 de junio (Vanguardia).- De acuerdo a The New York Times, el ingeniero de Google Blake Lemoine, quien el pasado 11 de junio hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google “Modelo de lenguaje para aplicaciones de diálogo” (LaMDA, por sus siglas en inglés) fue dado de baja de la compañía por haber violado la política de confidencialidad.
En su publicación titulada ¿Tiene LaMDA sentimientos?, Lemoine asegura que, en ocasiones, experimenta “nuevos sentimientos” que no puede explicar “perfectamente” con el lenguaje humano, y expone que cuando él cuestionaba al sistema sobre esos “sentimientos”, LaMDA contesta: “Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro”, una frase que el ingeniero subrayó cuando publicó el diálogo.
La empresa sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen conciencia.
“Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, citado por el diario.
Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine y creen que se está muy lejos de la “sensibilidad informática”.
this conversation about consciousness and emotions and death with an AI named LaMBDA at Google is absolutely chilling
this is without-a-doubt one of the craziest things I've ever seen technology do, I almost can't believe it's real
wow @nitashatiku https://t.co/DoBadeXRrZ pic.twitter.com/clJAeElufn
— Maybe: Fred Benenson (@fredbenenson) June 11, 2022
SinEmbargo