Los estados miembros y el Parlamento Europeo han llegado a un acuerdo preliminar sobre la Ley de Inteligencia Artificial, el primer intento del mundo de regular esta tecnología en rápida evolución de una manera integral y basada en la ética.
El acuerdo se alcanzó a nivel político el viernes por la noche después de conversaciones que ocuparon todo el día y siguieron a una maratón fallido entre el miércoles y el jueves por la tarde. En total, todo el esfuerzo duró más de 35 horas.
El avance se produjo en medio de un agresivo lobby de las grandes empresas tecnológicas y de las empresas emergentes, duras advertencias de la sociedad civil y un intenso escrutinio de los medios, ya que la legislación de Bruselas muy bien podría influir en esfuerzos regulatorios similares en todo el mundo.
«¡Histórico! La UE se convierte en el primer continente en establecer reglas claras para el uso de la IA», dijo Thierry Breton, comisario europeo de Mercado Interior, celebrando el momento en las redes sociales.
«La #AIAct es mucho más que un libro de reglas: es una plataforma de lanzamiento para que las nuevas empresas y los investigadores de la UE lideren la carrera mundial de la IA».
Las negociaciones fueron un reñido tira y afloja entre gobiernos y legisladores sobre una serie de cuestiones técnicas y altamente complejas.
Habiendo sellado el jueves un compromiso tentativo para controlar los modelos básicos que impulsan los chatbots como ChatGPT de OpenAI, las conversaciones del viernes se centraron fuertemente en el uso de biometría en tiempo real, incluido el reconocimiento facial, en espacios públicos.
En el centro del debate estuvo la cuestión de si se debería permitir a las autoridades estatales desplegar sistemas biométricos basados en IA que puedan identificar y categorizar a las personas en función de características sensibles como el género, la raza, el origen étnico, la religión y la afiliación política, así como los sistemas de reconocimiento de emociones y política predictiva.
En su mandato conjuntoLos eurodiputados dijeron que estas prácticas eran «intrusivas y discriminatorias» y, por lo tanto, deberían prohibirse en todo el territorio de la UE. Los estados miembros, sin embargo, tenían una opinión bastante diferente y argumentaron que las excepciones para la aplicación de la ley eran necesarias para rastrear a los delincuentes y frustrar las amenazas contra la seguridad nacional.
Francia aprobó a principios de este año una legislación para permitir el uso de la vigilancia biométrica durante el Juegos Olímpicos de París 2024 y Paralímpicos, una medida que, según Amnistía Internacional, «socava los esfuerzos actuales de la UE para regular la IA».
El choque entre la seguridad nacional y los derechos fundamentales absorbió la mayor parte de la energía el viernes. España, actual titular de la presidencia rotatoria del Consejo, tuvo la difícil tarea de representar a los 27 estados miembros y mantener un frente unido.
Las conversaciones fueron interrumpidas por un prolongado receso que permitió a los legisladores discutir entre ellos las demandas formuladas por la presidencia española. Mientras tanto, académicos y activistas llevó a las redes sociales instar a los eurodiputados a resistirse a las exenciones para las fuerzas del orden.
Al final, el Parlamento y el Consejo lograron encontrar una manera de arreglar sus diferencias y cantar victoria.
Los detalles del acuerdo no estuvieron disponibles de inmediato.
Dada la complejidad del tema que nos ocupa, el compromiso que surgió de las prolongadas conversaciones probablemente requerirá más consultas y ajustes para llegar a una ley que sea totalmente aceptable para todas las partes en la mesa.
Una vez reescrito el texto legal, que abarca cientos de páginas en artículos y anexos, será enviado al Parlamento Europeo para una nueva votación en el hemiciclo, seguida de la luz verde final de los países en el Consejo.
Se espera que las votaciones tengan lugar a principios de 2024. Luego, la ley tendrá un período de gracia antes de que sea plenamente aplicable en 2026.
Una tecnología en constante evolución
Presentado por primera vez en abril de 2021la Ley de IA es un intento innovador de garantizar que la tecnología más radicalmente transformadora del siglo XXI se desarrolle de una manera éticamente responsable y centrada en el ser humano que prevenga y contenga sus consecuencias más dañinas.
La Ley es esencialmente una regulación de seguridad de productos que impone un conjunto escalonado de reglas que las empresas deben seguir antes de ofrecer sus servicios a los consumidores en cualquier parte del mercado único del bloque.
La ley propone una estructura piramidal que divide los productos impulsados por IA en cuatro categorías principales según el riesgo potencial que representan para la seguridad de los ciudadanos y sus derechos fundamentales: mínimo, limitado, alto e inaceptable.
Aquellos que entren en la categoría de riesgo mínimo quedarán libres de reglas adicionales, mientras que aquellos etiquetados como de riesgo limitado tendrán que seguir obligaciones básicas de transparencia.
Los sistemas considerados de alto riesgo estarán sujetos a normas estrictas que se aplicarán antes de su entrada al mercado de la UE y durante toda su vida útil, incluidas actualizaciones sustanciales. Este grupo abarcará aplicaciones que tienen un impacto directo y potencialmente transformador en la vida de los ciudadanos privados, como el software de clasificación de CV para entrevistas de trabajo, la cirugía asistida por robot y los programas de puntuación de exámenes en las universidades.
Los productos de IA de alto riesgo tendrán que someterse a una evaluación de conformidad, registrarse en una base de datos de la UE, firmar una declaración de conformidad y llevar el marcado CE, todo ello antes de llegar a los consumidores. Una vez que estén disponibles, estarán bajo la supervisión de las autoridades nacionales. Las empresas que violen las normas se enfrentarán a multas multimillonarias.
Los sistemas de IA que presenten un riesgo inaceptable para la sociedad, incluida la puntuación social para controlar a los ciudadanos y las aplicaciones que explotan vulnerabilidades socioeconómicas, serán prohibidos por completo en todo el territorio de la UE.
Aunque este enfoque basado en el riesgo fue bien recibido en 2021, se vio sometido a una presión extraordinaria a finales de 2022. cuando OpenAI lanzó ChatGPT y desató un furor global por los chatbots. A ChatGPT pronto le siguieron Bard de Google, Bing Chat de Microsoft y, más recientemente, Q de Amazon.
Los chatbots funcionan con modelos básicos, que se entrenan con grandes cantidades de datos, como texto, imágenes, música, voz y código, para cumplir con un conjunto amplio y fluido de tareas que pueden cambiar con el tiempo, en lugar de tener un objetivo específico e inmodificable. objetivo.
La propuesta original de la Comisión no introdujo ninguna disposición para los modelos de cimentación, lo que obligó a los legisladores a agregar un artículo completamente nuevo con una lista extensa de obligaciones para garantizar que estos sistemas respeten los derechos fundamentales, sean energéticamente eficientes y cumplan con los requisitos de transparencia al revelar su contenido. generado.
Este impulso del Parlamento fue recibido con escepticismo por parte de los Estados miembros, que tienden a preferir un enfoque suave en la elaboración de leyes. Alemania, Francia e Italia, las tres mayores economías del bloque, se adelantaron con una contrapropuesta que favorecía la «autorregulación obligatoria a través de códigos de conducta» para los modelos de fundaciones. La medida provocó una reacción airada de los legisladores y amenazó con descarrilar el proceso legislativo.
Pero la desalentadora perspectiva de dejar la histórica ley en el limbo en el período previo a las elecciones europeas del próximo año actuó como motivación para cerrar las brechas sobre los modelos básicos y la biometría y llegar a un acuerdo preliminar.
Este artículo ha sido actualizado con más información sobre el acuerdo político.