
La nueva versión permitirá a los usuarios personalizar la personalidad del asistente de IA en lo que la empresa llama la política de “tratar a los usuarios adultos como adultos”.
The Guardian.- OpenAI anunció el martes planes para relajar las restricciones en su chatbot ChatGPT, incluyendo permitir contenido erótico para usuarios adultos verificados como parte de lo que la compañía llama el principio de “tratar a los usuarios adultos como adultos”.
El plan de OpenAI incluye el lanzamiento de una versión actualizada de ChatGPT que permitirá a los usuarios personalizar la personalidad de su asistente de IA, incluyendo opciones para respuestas más humanas, un uso intensivo de emojis o un comportamiento similar al de un amigo. El cambio más significativo llegará en diciembre, cuando OpenAI planea implementar un control de edad más completo que permitirá el acceso a contenido erótico para adultos que hayan verificado su edad. OpenAI no proporcionó detalles de inmediato sobre sus métodos de verificación de edad ni sobre las medidas de seguridad adicionales previstas para el contenido para adultos.
La compañía lanzó en septiembre una experiencia ChatGPT dedicada para usuarios menores de 18 años, con redirección automática a contenido apropiado para su edad que bloquea material gráfico y sexual.
También dijo que estaba desarrollando una tecnología de predicción de edad basada en el comportamiento que estima si un usuario es mayor o menor de 18 años en función de cómo interactúa con ChatGPT.
En una publicación en X, Sam Altman , el director ejecutivo de OpenAI, dijo que las restricciones más estrictas sobre la IA conversacional para abordar las preocupaciones de salud mental habían hecho que su chatbot fuera “menos útil/agradable para muchos usuarios que no tenían problemas de salud mental”.
Los controles de seguridad más estrictos se implementaron después de que Adam Raine, un adolescente californiano, se suicidara a principios de este año. Sus padres presentaron una demanda en agosto alegando que ChatGPT le había proporcionado consejos específicos sobre cómo quitarse la vida. Tan solo dos meses después, Altman afirmó que la empresa había logrado mitigar los graves problemas de salud mental.
La Comisión Federal de Comercio de Estados Unidos también inició una investigación a varias empresas tecnológicas, incluida OpenAI , sobre cómo los chatbots de IA pueden afectar negativamente a niños y adolescentes.
“Dada la gravedad del problema, queríamos solucionarlo”, dijo Altman el martes, argumentando que las nuevas herramientas de seguridad de OpenAI ahora permiten a la empresa aliviar las restricciones y al mismo tiempo abordar los graves riesgos para la salud mental.












