Las opiniones expresadas en este artículo son las del autor y no representan de ninguna manera la posición editorial de Euronews.
En abril de 2021, cuando Bruselas propuso la primera regulación intersectorial sobre IA del mundo, afirmó proteger los derechos fundamentales y promover la innovación. En 2023, es posible que los derechos fundamentales ya no sigan siendo fundamentales para esta regulación, escribe el Dr. Kris Shrishak.
Una coalición de gobiernos francés, alemán e italiano ha propuesto que las empresas autorregulan los sistemas de inteligencia artificial como GPT, que pueden usarse en diversas aplicaciones. Esta propuesta surge de su oposición del 9 de noviembre a la regulación de tales sistemas de IA en la Ley de IA.
Este impulso a la autorregulación en la UE no debe verse de forma aislada. Sigue una serie de pequeños pasos por parte de los legisladores que hacen que esta nueva propuesta sea decepcionante, pero no sorprendente.
La evidencia del descuido de la protección de datos por parte de la industria de la publicidad en línea y de varios denunciantes de Facebook, entre otros, muestra que el enfoque de autorregulación en la industria tecnológica ha contribuido a causar daños significativos.
Y, sin embargo, la normativa tecnológica emblemática de la UE, la Ley de IA, se ha basado en la autoevaluación, desde el momento en que la Comisión Europea la propuso en 2021.
¿Un paso más y luego un paso atrás?
Las empresas podrían autoevaluar si cumplen los requisitos para los sistemas de IA de alto riesgo. Podrían proporcionar información y gestionar riesgos voluntariamente. Incluso cuando hay problemas graves con sus sistemas de IA de alto riesgo, deben informar a los reguladores sólo bajo un conjunto limitado de condiciones y podrían evadir fácilmente la responsabilidad.
Cabría esperar que el Parlamento Europeo y el Consejo de la UE reconocieran los problemas que surgen de las autoevaluaciones. En cambio, han ido un paso más allá.
Han creado disposiciones que permiten a las empresas elegir si sus sistemas de inteligencia artificial son de alto riesgo o no. En otras palabras, las empresas pueden decidir si están reguladas o no porque la Ley de IA sólo regula los sistemas de IA de alto riesgo.
Además de las autoevaluaciones, la propuesta de 2021 de la Comisión Europea tenía otro gran vacío. Sólo consideró sistemas de IA con un «propósito previsto».
Ya en 2021 se acumulaba evidencia de daños causados por sistemas de IA sin propósitos predefinidos, como GPT-2 y GPT-3. Sin embargo, la Comisión Europea no los abordó en su propuesta.
Sin embargo, en noviembre de 2022, se lanzó ChatGPT, construido sobre GPT-3, y los daños se informaron ampliamente en los medios populares.
El Parlamento Europeo estableció normas para estos sistemas de IA en su posición de junio de este año. Estas normas fueron modificadas nuevamente por la Presidencia española del Consejo en octubre-noviembre.
Parecía que los legisladores habían llegado a un acuerdo sobre la regulación de estos sistemas de IA, hasta que Francia, Alemania e Italia se opusieron.
Un viaje gratis para los que rompen las reglas
Los gobiernos de estos países han propuesto ahora una “autorregulación obligatoria mediante códigos de conducta” sin ninguna sanción por las violaciones.
¿Cómo es obligatorio seguir una norma si no se aplica ni se sanciona? ¿Y por qué una empresa seguiría estas reglas?
Los que infrinjan las reglas tendrán un viaje gratis, mientras que los que las siguen lo encontrarán costoso. Esto promoverá el despliegue en la UE de sistemas de IA dañinos y mal probados.
Incluso podría promover la “innovación” para eludir las reglas, como se vio en el escándalo de Volkswagen. La competencia entre infractores de las reglas será la única competencia en este mercado.
En octubre, Neil Clarke de la revista Clarkesworld lo dijo claramente ante la Comisión Federal de Comercio: “La regulación de este [AI] La industria es necesaria más temprano que tarde, y cada momento que se les permite continuar con sus prácticas actuales sólo causa más daño. Sus acciones hasta la fecha demuestran que no se puede confiar en que lo hagan ellos mismos”.
La regresión de la UE a la autorregulación es exactamente lo contrario de lo que se requiere de una superpotencia reguladora.
La nueva propuesta permitirá a la industria de la IA continuar con sus prácticas actuales y seguir sin rendir cuentas. Los daños a los derechos fundamentales seguirán propagándose y la Ley de IA no logrará taparlos.
En abril de 2021, cuando la Comisión Europea propuso la primera regulación intersectorial sobre IA del mundo, afirmó proteger los derechos fundamentales y promover la innovación.
Para finales de 2023, es posible que los derechos fundamentales ya no sigan siendo fundamentales para este reglamento.
El Dr. Kris Shrishak es miembro principal del Consejo Irlandés para las Libertades Civiles, la organización independiente de vigilancia de los derechos humanos más antigua de Irlanda.
En Euronews creemos que todas las opiniones importan. Contáctenos en [email protected] para enviar propuestas o presentaciones y ser parte de la conversación.