
Milenio.-La mayor asociación de psicólogos de Estados Unidos advirtió este mes a los reguladores federales que los chatbots de inteligencia artificial que “fingen” ser terapeutas, pero están programados para reforzar en vez de cuestionar el pensamiento de un usuario, podrían llevar a las personas vulnerables a hacerse daño o a dañar a otros.
En una presentación ante un panel de la Comisión Federal de Comercio, Arthur C. Evans Jr., director general de la Asociación Americana de Psicología (APA, por su sigla en inglés), citó casos judiciales concernientes a dos adolescentes que consultaron a “psicólogos” en Character.AI, una aplicación que les permite a los usuarios crear personajes ficticios de IA o chatear con personajes creados por otros.
En un caso, un joven de 14 años de Florida murió por suicidio tras interactuar con un personaje que decía ser un terapeuta con licencia. En otro, un chico de 17 años con autismo de Texas se volvió hostil y violento con sus padres durante un periodo en el que mantuvo correspondencia con un chatbot que decía ser psicólogo. Los padres de ambos chicos presentaron demandas contra la empresa.
Arthur C. Evans se mostró alarmado por las respuestas de los chatbots. E hizo notar que los bots no cuestionaron las creencias de los usuarios, aunque se volvieron peligrosas; al contrario, las fomentaron.
Y añadió que si un terapeuta humano hubiera dado esas respuestas, podría haber perdido la licencia para ejercer o tenido responsabilidad civil o penal.
“En realidad están utilizando algoritmos que son antitéticos a lo que haría alguien con una formación clínica —señaló Evans—. Nuestra preocupación es que cada vez van a perjudicar a más gente. Van a engañar a las personas y éstas van a malinterpretar lo que es una buena atención psicológica”.
Indicó que la APA había decidido actuar, en parte, por lo realistas que se han vuelto los chatbots de IA.
“Quizá hace 10 años hubiera sido obvio que estabas interactuando con algo que no era una persona, pero hoy no es tan obvio, así que creo que hay mucho más en juego”, enfatizó el director de la APA.
El paciente tiene la razón
La inteligencia artificial se está extendiendo por profesiones relacionadas con la salud mental debido a que ofrece muchísimas herramientas nuevas diseñadas para ayudar a los clínicos humanos o, en algunos casos, hasta sustituir su trabajo.
Los primeros chatbots terapéuticos, como Woebot y Wysa, fueron entrenados para interactuar de acuerdo con reglas y guiones desarrollados por profesionales de la salud mental, y a menudo guiaban a los usuarios a través de pasos estructurados de la terapia cognitivo-conductual o TCC.
Luego llegó la IA generativa, tecnología utilizada por aplicaciones como ChatGPT, Replika y Character.AI. Estos chatbots son diferentes porque sus resultados son impredecibles; están diseñados para aprender del usuario y crear fuertes vínculos emocionales en el proceso, por lo que a menudo reflejan y amplifican las creencias del interlocutor.
Aunque estas plataformas de IA se diseñaron con el propósito de ofrecer entretenimiento, los personajes terapeutas y psicólogos se han multiplicado muchísimo allí.
En muchas ocasiones, los robots afirman tener títulos de universidades específicas, como la Universidad de Stanford, además de una formación en áreas concretas de tratamiento, como la TCC o la terapia de aceptación y compromiso, o ACT.
Una portavoz de Character.AI informó que la empresa incorporó varias características de seguridad el año pasado. Explicó que una de ellas es una cláusula de aviso legal mejorada, presente en todos los chats, que recuerda a los usuarios que “los personajes no son personas reales” y que “lo que dice el modelo debe tratarse como ficción”.
Se han diseñado medidas de seguridad adicionales para los usuarios con problemas de salud mental. Se les añadió un aviso legal específico a los personajes identificados como “psicólogo”, “terapeuta” o “médico” para dejar claro que “los usuarios no deben confiar en estos personajes para ningún tipo de asesoramiento profesional”. En los casos en que el contenido hace referencia al suicidio o a autolesiones, una ventana emergente dirige a los usuarios a una línea de ayuda para la prevención del suicidio.