Se produjo después de maratonianas conversaciones a puerta cerrada esta semana, con una sesión que duró 22 horas antes de que comenzara una segunda ronda el viernes por la mañana.
Los funcionarios proporcionaron pocos detalles sobre qué se incluirá exactamente en la ley final, que no entraría en vigor hasta 2025 como muy pronto. Estaban bajo presión para asegurar una victoria política para la legislación emblemática, pero se esperaba que dejaran la puerta abierta a nuevas conversaciones para resolver la letra pequeña, lo que probablemente generaría más lobby en la trastienda.
La UE tomó una temprana iniciativa en la carrera global para diseñar barreras de seguridad para la IA cuando dio a conocer el primer borrador de su libro de reglas en 2021. Sin embargo, el reciente auge de la IA generativa hizo que los funcionarios europeos se apresuraran a actualizar una propuesta preparada para servir como modelo para el mundo.
El Parlamento Europeo aún necesitará votarlo a principios del próximo año, pero una vez cerrado el acuerdo, eso es una formalidad, dijo Brando Benifei a última hora del viernes.
«Es muy, muy bueno», dijo por mensaje de texto después de que le preguntaran si incluía todo lo que quería. «Obviamente tuvimos que aceptar algunos compromisos, pero en general muy bien».
OpenAI solicita las marcas comerciales GPT-6 y GPT-7 en China
OpenAI solicita las marcas comerciales GPT-6 y GPT-7 en China
Los sistemas de IA generativa como ChatGPT de OpenAI han irrumpido en la conciencia mundial, deslumbrando a los usuarios con la capacidad de producir textos, fotografías y canciones similares a los humanos, pero generando temores sobre los riesgos que la tecnología en rápido desarrollo representa para los empleos, la privacidad y la protección de los derechos de autor e incluso para la vida humana misma.
Ahora, Estados Unidos, Reino Unido, China y coaliciones globales como el Grupo de las 7 principales democracias se han sumado con sus propias propuestas para regular la IA, aunque todavía están alcanzando a Europa.
Una vez que se elabore la versión final de la Ley de IA de la UE, el texto necesitará la aprobación de los 705 legisladores del bloque antes de que se dividan para las elecciones a nivel de toda la UE el próximo año. Se espera que esa votación sea una formalidad.
La Ley de IA se diseñó originalmente para mitigar los peligros de funciones específicas de la IA en función de su nivel de riesgo, desde bajo hasta inaceptable. Pero los legisladores presionaron para expandirlo a los modelos básicos, los sistemas avanzados que sustentan los servicios de inteligencia artificial de propósito general como ChatGPT y el chatbot Bard de Google.
Los modelos de fundaciones parecían destinados a ser uno de los mayores puntos conflictivos para Europa. Sin embargo, los negociadores lograron llegar a un compromiso tentativo al principio de las conversaciones, a pesar de la oposición encabezada por Francia, que pidió en cambio una autorregulación para ayudar a las empresas europeas locales de IA generativa que compiten con grandes rivales estadounidenses, incluido Microsoft, patrocinador de OpenAI.
También conocidos como grandes modelos de lenguaje, estos sistemas se entrenan con grandes cantidades de trabajos escritos e imágenes extraídas de Internet. Dan a los sistemas de IA generativa la capacidad de crear algo nuevo, a diferencia de la IA tradicional, que procesa datos y completa tareas utilizando reglas predeterminadas.
Según el acuerdo, los modelos básicos más avanzados que plantean los mayores “riesgos sistémicos” serán objeto de un escrutinio adicional, incluidos requisitos para revelar más información, como cuánta potencia informática se utilizó para entrenar los sistemas.
Los investigadores han advertido que estos poderosos modelos básicos, construidos por un puñado de grandes empresas tecnológicas, podrían usarse para potenciar la desinformación y manipulación en línea, los ciberataques o la creación de armas biológicas.
La IA plantea un riesgo de «extinción» comparable a la guerra nuclear y las pandemias: expertos
La IA plantea un riesgo de «extinción» comparable a la guerra nuclear y las pandemias: expertos
Los grupos de derechos humanos también advierten que la falta de transparencia sobre los datos utilizados para entrenar los modelos plantea riesgos para la vida diaria porque actúan como estructuras básicas para los desarrolladores de software que crean servicios basados en IA.
Lo que se convirtió en el tema más espinoso fueron los sistemas de vigilancia de reconocimiento facial impulsados por inteligencia artificial, y los negociadores llegaron a un compromiso después de una intensa negociación.
Los legisladores europeos querían una prohibición total del uso público del escaneo facial y otros sistemas de “identificación biométrica remota” debido a preocupaciones de privacidad, mientras que los gobiernos de los países miembros querían exenciones para que las fuerzas del orden pudieran usarlos para abordar delitos graves como la explotación sexual infantil o los ataques terroristas.