La Unión Europea aprueba un paquete de normas para regular la IA
La UE acordó los términos de la Ley de Inteligencia Artificial, un nuevo e importante conjunto de reglas que regirán la construcción y el uso de la IA, y tendrán significativas implicaciones para Google, OpenAI y otras empresas que se apresuran a desarrollar sistemas con esta tecnología.
WIRED.- La Unión Europea (UE) acordó el viernes los detalles de la Ley de Inteligencia Artificial (IA Act), un conjunto de reglas de gran alcance para las personas que construyen y utilizan esta tecnología. Se trata de una normativa que marca un hito y que, según esperan los legisladores, servirá de modelo para el resto del mundo.
Tras meses de debate sobre cómo regular empresas como OpenAI, los legisladores de los tres poderes de la UE: Parlamento, Consejo y Comisión, dedicaron más de 36 horas en total a elaborar la nueva legislación entre el miércoles por la tarde y el viernes por la noche. Tenían la presión de llegar a un acuerdo antes de que comience la campaña electoral del Parlamento de la UE en el nuevo año.
Qué implica la Ley de Inteligencia Artificial de la UE
“La Ley de IA de la UE es una primicia mundial”, declaró la presidenta de la Comisión Europea, Ursula von der Leyen, en la red social X. “Es un marco jurídico único para el desarrollo de una IA en la que se pueda confiar. Y para la seguridad y los derechos fundamentales de las personas y las empresas”.
La ley en sí no es una primicia mundial; las nuevas disposiciones de China sobre IA generativa entraron en vigor en agosto. Pero la Ley de IA de la UE es la normativa más amplia de este tipo para la tecnología. Prohíbe los sistemas biométricos, que identifican a las personas utilizando características delicadas como la orientación sexual y la raza, así como la extracción indiscriminada de rostros de internet. Los legisladores también acordaron que las fuerzas del orden pueden utilizar sistemas de identificación biométrica en espacios públicos para determinados delitos.
También se incluyeron nuevos requisitos de transparencia para todos los modelos de IA de propósito general, como el GPT-4 de OpenAI, que impulsa ChatGPT, y reglas más estrictas para los modelos “muy potentes”. Dragos Tudorache, miembro del Parlamento Europeo y uno de los dos coponentes que dirigieron las negociaciones señala que “la Ley de Inteligencia Artificial establece normas para los modelos de IA grandes y potentes, garantizando que no presenten riesgos sistémicos para la Unión”.
También se incluyeron medidas destinadas a facilitar la protección de los titulares de derechos de autor frente a la IA generativa y a exigir que los sistemas de propósito general sean más transparentes sobre su consumo de energía.
“Europa se ha posicionado como pionera, comprendiendo la importancia de su papel como organismo normativo mundial”, declaró Thierry Breton, comisionado europeo, en una conferencia de prensa celebrada el viernes por la noche.