The Washington Post.- QTCinderella se hizo un nombre jugando, horneando y discutiendo su vida en la plataforma de transmisión de video Twitch, atrayendo a cientos de miles de espectadores a la vez. Fue pionera en los “Premios Streamer” para honrar a otros creadores de contenido de alto rendimiento y recientemente apareció como invitada codiciada en una serie de campeones de deportes electrónicos.
Las fotos de desnudos no son parte del contenido que comparte, dice. Pero alguien en Internet hizo algunos, usando la imagen de QTCinderella en pornografía generada por computadora. Este mes, el destacado streamer Brandon Ewing admitió haber visto esas imágenes en un sitio web que contiene miles de otras falsificaciones profundas, llamando la atención sobre una amenaza creciente en la era de la IA: la tecnología crea una nueva herramienta para atacar a las mujeres.
“Para cada persona que dice que no es gran cosa, no sabes cómo se siente ver una foto tuya haciendo cosas que nunca has hecho y que se envía a tu familia”, dijo QTCinderella en un video transmitido en vivo.
Los streamers generalmente no revelan sus nombres reales y se guían por sus nombres. QTCinderella no respondió a una solicitud de comentarios por separado. Señaló en su transmisión en vivo que abordar el incidente ha sido “agotador” y no debería ser parte de su trabajo.
Hasta hace poco, hacer porno realista con IA requería experiencia informática. Ahora, gracias en parte a las nuevas herramientas de IA fáciles de usar, cualquier persona con acceso a las imágenes del rostro de una víctima puede crear contenido explícito de aspecto realista con un cuerpo generado por IA. Es probable que aumenten los incidentes de acoso y extorsión, dicen los expertos en abuso, ya que los malos actores usan modelos de inteligencia artificial para humillar a objetivos que van desde celebridades hasta ex novias, incluso niños.
Las mujeres tienen pocas formas de protegerse, dicen, y las víctimas tienen pocos recursos.
A partir de 2019, el 96 por ciento de las falsificaciones profundas en Internet eran pornografía, según un análisis de la firma de inteligencia artificial DeepTrace Technologies, y prácticamente todas las falsificaciones profundas pornográficas mostraban mujeres. La presencia de deepfakes se ha disparado desde entonces, mientras que la respuesta de las fuerzas del orden y los educadores va a la zaga, dijo la profesora de derecho y experta en abusos en línea Danielle Citron. Solo tres estados de EE. UU. tienen leyes que abordan la pornografía falsa.
“Este ha sido un problema generalizado”, dijo Citron. “No obstante, hemos lanzado nuevas y diferentes herramientas [IA] sin ningún reconocimiento de las prácticas sociales y cómo se van a utilizar “.
El laboratorio de investigación OpenAI hizo olas en 2022 al abrir al público su modelo insignia de generación de imágenes, Dall-E, lo que generó deleite y preocupaciones sobre la desinformación, los derechos de autor y los sesgos. Los competidores Midjourney y Stable Diffusion lo siguieron de cerca, y este último hizo que su código estuviera disponible para que cualquiera lo descargara y modificara.
Los abusadores no necesitaban un potente aprendizaje automático para hacer deepfakes: las aplicaciones de “intercambio de caras” disponibles en las tiendas de aplicaciones de Apple y Google ya facilitaban su creación. Pero la última ola de inteligencia artificial hace que las falsificaciones profundas sean más accesibles, y los modelos pueden ser hostiles con las mujeres de maneras novedosas.
Dado que estos modelos aprenden qué hacer al ingerir miles de millones de imágenes de Internet, pueden reflejar prejuicios sociales, sexualizando imágenes de mujeres por defecto, dijo Hany Farid, profesor de la Universidad de California en Berkeley que se especializa en analizar imágenes digitales. A medida que mejoran las imágenes generadas por IA, los usuarios de Twitter han preguntado si las imágenes representan una amenaza financiera para el contenido para adultos creado con consentimiento, como el servicio OnlyFans, donde los artistas muestran voluntariamente sus cuerpos o realizan actos sexuales.
Mientras tanto, las empresas de inteligencia artificial continúan siguiendo el espíritu de Silicon Valley de “moverse rápido y romper cosas”, y optan por abordar los problemas a medida que surgen.
“Las personas que desarrollan estas tecnologías no piensan en ello desde la perspectiva de una mujer, que ha sido víctima de pornografía no consensuada o experimentado acoso en línea”, dijo Farid. “Tienes un montón de tipos blancos sentados como ‘Oye, mira esto'”.
El daño de Deepfakes se amplifica por la respuesta pública
Las personas que ven imágenes explícitas de usted sin su consentimiento, ya sean imágenes reales o falsas, es una forma de violencia sexual, dijo Kristen Zaleski, directora de salud mental forense en la Clínica de Derechos Humanos Keck de la Universidad del Sur de California. Las víctimas a menudo se encuentran con el juicio y la confusión de sus empleadores y comunidades, dijo. Por ejemplo, Zaleski dijo que ya trabajó con una maestra de escuela de un pueblo pequeño que perdió su trabajo después de que los padres se enteraron de que la pornografía artificial se hacía a semejanza de la maestra sin su consentimiento.
“Los padres de la escuela no entendían cómo podía ser eso posible”, dijo Zaleski. “Insistieron en que ya no querían que ella les enseñara a sus hijos”.
La creciente oferta de deepfakes está impulsada por la demanda: después de la disculpa de Ewing, una avalancha de tráfico en el sitio web que albergaba los deepfakes hizo que el sitio colapsara repetidamente, dijo la investigadora independiente Genevieve Oh. La cantidad de videos nuevos en el sitio casi se duplicó de 2021 a 2022 a medida que proliferaron las herramientas de imágenes de IA, dijo. Los creadores de deepfakes y los desarrolladores de aplicaciones ganan dinero con el contenido cobrando suscripciones o solicitando donaciones, descubrió Oh, y Reddit ha alojado repetidamente hilos dedicados a encontrar nuevas herramientas y repositorios de deepfakes.
Cuando se le preguntó por qué no siempre eliminó rápidamente estos hilos, una portavoz de Reddit dijo que la plataforma está trabajando para mejorar su sistema de detección. “Reddit fue uno de los primeros sitios en establecer políticas en todo el sitio que prohíben este contenido, y continuamos desarrollando nuestras políticas para garantizar la seguridad de la plataforma”, dijo.
Los modelos de aprendizaje automático también pueden escupir imágenes que representan abuso infantil o violación y, debido a que nadie resultó dañado en la creación, dicho contenido no violaría ninguna ley, dijo Citron. Pero la disponibilidad de esas imágenes puede impulsar la victimización en la vida real, dijo Zaleski.
Algunos modelos de imágenes generativas, incluido Dall-E, vienen con límites que dificultan la creación de imágenes explícitas. OpenAI minimiza las imágenes de desnudos en los datos de entrenamiento de Dall-E, impide que las personas ingresen ciertas solicitudes y escanea la salida antes de mostrársela al usuario, dijo a The Washington Post el investigador principal de Dall-E, Aditya Ramesh.
Otro modelo, Midjourney, usa una combinación de palabras bloqueadas y moderación humana, dijo el fundador David Holz. La compañía planea implementar filtros más avanzados en las próximas semanas que tendrán mejor en cuenta el contexto de las palabras, dijo.
Stability AI, fabricante del modelo Stable Diffusion, dejó de incluir pornografía en los datos de capacitación de sus lanzamientos más recientes, lo que redujo significativamente el sesgo y el contenido sexual, dijo el fundador y director ejecutivo Emad Mostaque.
Pero los usuarios se apresuraron a encontrar soluciones descargando versiones modificadas del código disponible públicamente para Stable Diffusion o buscando sitios que ofrecen capacidades similares.
Ninguna barandilla será 100 por ciento efectiva para controlar la salida de un modelo, dijo Farid de Berkeley. Los modelos de IA representan a mujeres con poses y expresiones sexualizadas debido al sesgo generalizado en Internet, la fuente de sus datos de entrenamiento, independientemente de si se han filtrado los desnudos y otras imágenes explícitas.
Por ejemplo, la aplicación Lensa, que llegó a la cima de las listas de aplicaciones en noviembre, crea autorretratos generados por IA. Muchas mujeres dijeron que la aplicación sexualizaba sus imágenes, dándoles senos más grandes o mostrándolas sin camisa.
Lauren Gutiérrez, una mujer de 29 años de Los Ángeles que probó Lensa en diciembre, dijo que le dio fotos de sí misma disponibles públicamente, como su foto de perfil de LinkedIn. A su vez, Lensa renderizó múltiples imágenes desnudas.
Gutiérrez dijo que al principio se sintió sorprendida. Entonces se sintió nerviosa.
“Casi se sintió espeluznante”, dijo. “Como si un hombre tomara las fotos de una mujer que acaba de encontrar en línea y las pusiera en esta aplicación y pudiera imaginar cómo se ve desnuda. ”
Para la mayoría de las personas, eliminar su presencia de Internet para evitar los riesgos de abuso de la IA no es realista. En cambio, los expertos lo instan a evitar consumir contenido sexual no consensuado y a familiarizarse con las formas en que afecta la salud mental, las carreras y las relaciones de sus víctimas.
También recomiendan hablar con sus hijos sobre el “consentimiento digital”. Las personas tienen derecho a controlar quién ve imágenes de sus cuerpos, reales o no.