160,000 imágenes creadas con IA: los retos contra la violencia digital en México

0
211

El robo y manipulación de imágenes de alumnas del IPN y su búsqueda de justicia ha dado pie a la primera investigación sobre violencia sexual con el uso de Inteligencia Artificial en el país.

Expansión.- En la aula DS9 estudiantes de la carrera de Mercadotecnia Digital descubrieron a Diego ‘N’, su compañero de clase, con un iPad alrededor de 160,000 imágenes íntimas –videos y fotografías– reales y manipuladas de unas 1,000 mujeres, varias de ellas alumnas de la misma Escuela Superior de Comercio y Administración (ESCA) Santo Tomás, del IPN.

Al confrontar a Diego ese 6 de octubre y exigir justicia, las estudiantes lograron que se persiguiera por primera vez justicia para víctimas de violencia sexual digital con el uso de Inteligencia Artificial (IA) en México, lo que resulta un reto al considerar que el país no cuenta con policías especializados en la materia.

La Ley Olimpia, aprobada en la Ciudad de México en 2019 y luego a nivel nacional en 2021, contempla la manipulación de imágenes con Inteligencia Artificial como una forma de violencia digital.

Comete delito contra la intimidad sexual “quien videograbe, audiograbe, fotografíe, filme o elabore, imágenes, audios o videos reales o simulados de contenido sexual íntimo, de una persona sin su consentimiento o mediante engaño”, indica el Artículo 181 Quintus del Código Penal capitalino.

No obstante, hay una falta de capacidad aún en la Fiscalía de la ciudad –en sus Ministerios Públicos, Policías de Investigación, peritos y psicólogos– para atender este tipo de casos, señala Leslie Jiménez Urzúa, coordinadora de Proyectos en Impunidad Cero.

“Se publica la ley y no tenían unidades especializadas, no sabían cómo se tenía que iniciar la carpeta ni qué pruebas pedir a las víctimas. Si como Fiscalía no tienes herramientas técnicas, peritos técnicos para poder llevar la investigación, el resultado a va a ser que lo dejes en libertad sin haber hecho gran cosa o detenerlo y pensar en una judicialización sin saber si tienes los elementos necesarios para llevar el caso a un juicio”, dice en entrevista con Expansión Política.

Asimismo, el Índice de Desarrollo Digital Estatal (IDDE) 2023, elaborado por el Centro México Digital (CMD), señala que actualmente solo existen, en promedio, cuatro agentes de policía cibernética por cada millón de habitantes, quienes están encargados exclusivamente de la supervisión y el combate de delitos en el ámbito digital.

La lucha contra la violencia digital no es sencilla

Tras presentar ocho denuncias ante la Fiscalía General de Justicia de la Ciudad de México (FGJ CDMX) el 6 y 7 de octubre, el acusado fue puesto a disposición del Ministerio Público, sin embargo sólo estuvo detenido ese fin de semana para ser liberado la mañana del 9 de octubre.

Protegidas con paliacates y cubrebocas, las denunciantes se manifestaron el 16 de octubre frente a la puerta principal de la ESCA, acompañadas de organizaciones feministas y activistas como Olimpia Coral, impulsora de la Ley Olimpia.

“Intentaron hacer creer que esta violencia no era real pero decidimos hablar con fuerza porque el amor entre mujeres salva”, dijo una de las manifestantes.

Ese mismo día, el IPN comunicó la decisión de la Comisión de Honor de dar de baja definitiva a Diego ‘N’. “No hay tolerancia ante este tipo de actos

El 26 de octubre, 20 días después de las primeras denuncias y tras generar atención el caso en redes sociales y medios de comunicación, Diego ‘N’ fue aprehendido por elementos de la FGJ CDMX acusado del delitos contra la intimidad sexual.

El denunciar y buscar ayuda es difícil, pues no hay una ruta clara para que las víctimas sepan a qué instancia acudir. Asimismo, en los Ministerios Públicos no se tiene claro cómo recopilar y resguardar pruebas, ni se tiene un mecanismo para pedir información a las plataformas usadas para crear o distribuir el material, reitera Jiménez Urzúa.

La integrante de Impunidad Cero explica que la violencia sexual en el espacio digital vulnera los derechos de personas reales.

“Es real en el sentido que tiene una afectación no sólo social sino también en la pérdida de agencia de tu cuerpo porque otra persona te sexualiza sin que tú se lo permitas. Es una manifestación más de violencia sexual porque estas agresiones se presentan por la supremacía de poder inequívoca”, señala.

Pese a que en el caso del IPN el presunto agresor se encuentra bajo prisión preventiva y tiene la atención de la Fiscalía capitalina, Jiménez Urzúa advierte se requiere atender este tipo de violencia con seriedad e investigar la red de comercialización y venta, pues como señalaron las víctimas: Diego ‘N’ no actuó solo.

“Al final fueron ellas (las estudiantes) las que lograron con esta presión que la Fiscalía hiciera su trabajo y no podemos seguir dejando a la viralidad los casos para que la autoridad trabaje. Necesitamos urgentemente que se tomen en serio esta violencia para acreditar no sólo este, sino todos los casos que están sucediendo todos los días porque este caso nos ejemplifica que hay una red en las escuelas”, señala.

De 1,705 casos de violencia digital recibidos a través de la página defensorasdigitales.org y en su página de Facebook entre mayo de 2019 a diciembre de 2021, 95 de cada 100 víctimas son mujeres y 38.8% son estudiantes, de acuerdo con el Informe Violencia Digital publicado por el por el Frente Nacional para la Sororidad y Defensoras Digitales en julio de 2022.

Aunque en México el caso del IPN es el primero que se investiga penalmente donde fue usada la Inteligencia Artificial, a nivel internacional ya hay signos de preocupación: investigadores de la Internet Watch Foundation (IWF) de Reino Unido identificaron en un solo foro se 2,562 imágenes consideradas como pseudo-fotografías criminales de niños y adolescentes, generadas con Inteligencia Artificial y subidas durante solo un mes.

Este representa una nueva área donde los perpetradores para tener una ganancia al comerciar estas imágenes manipuladas con IA, así como facilidad de operar de forma anónima al existir herramientas de IA con las que se pueden crear contenido difícil de distinguir de imágenes reales de abuso de menores sin estar conectados a internet, de acuerdo con el informe ‘¿Cómo se abusa de la IA para crear imágenes de abuso sexual infantil?’ .

Compartir en:

Leave a reply