El organismo de control advierte que el proceso de estandarización debe acelerarse, ya que pronto comenzarán a aplicarse las disposiciones de la Ley de IA de la UE.
El proceso para establecer estándares para sistemas y productos de inteligencia artificial en virtud de la Ley de IA tendrá que ser más rápido, dijo a Euronews un alto funcionario del organismo holandés de vigilancia de la privacidad Autoriteit Persoonsgegevens (AP).
“Los estándares son una manera de crear certidumbre para las empresas y para que éstas demuestren su cumplimiento. Todavía queda mucho trabajo por hacer antes de que esos estándares estén listos. Y, por supuesto, el tiempo empieza a agotarse”, dijo Sven Stevenson, director de coordinación y supervisión de algoritmos de la agencia.
“Los procesos de estandarización normalmente tardan muchos años. Ciertamente pensamos que es necesario intensificarlo”, añadió.
La Comisión Europea preguntó las organizaciones de estandarización CEN-CELENEC y ETSI en mayo del año pasado para preparar los estándares subyacentes para la industria, y este proceso aún está en curso.
La Ley de IA, el primer conjunto de normas del mundo destinadas a regular las herramientas de aprendizaje automático, incluidos asistentes virtuales y grandes modelos de lenguaje como ChatGPT, entró en vigor en agosto, pero las disposiciones comenzarán a aplicarse gradualmente. Por ejemplo, las normas para los proveedores de modelos GPAI entrarán en vigor en agosto del próximo año.
Vista clara de la IA
La AP, que también es la autoridad de protección de datos que supervisa el Reglamento General de Protección de Datos (GDPR), probablemente tendrá la competencia compartida para verificar el cumplimiento de la Ley de IA por parte de las empresas con otras agencias, incluido el RDI, el regulador holandés a cargo de la infraestructura digital. . Hasta ahora, la AP tiene unas 20 personas trabajando en IA.
Todos los estados miembros de la UE tienen hasta agosto del próximo año para nombrar a su regulador a cargo de la IA, y en la mayoría de los países de la UE las autoridades nacionales de protección de datos parecen ser una opción adecuada.
En su papel de regulador de datos, AP ya ha abordado situaciones en las que se descubrió que las herramientas de inteligencia artificial de las empresas infringían el RGPD. Por ejemplo, en septiembre, multado La empresa estadounidense de reconocimiento facial Clearview AI, 30,5 millones de euros por crear una base de datos ilegal con fotografías, códigos biométricos únicos y otra información vinculada a los europeos.
En casos futuros similares, la Ley de IA sería complementaria al RGPD, ya que se trata ante todo del procesamiento de datos personales. “La Ley de IA se aplicaría en el sentido de que trata sobre la seguridad del producto. Si prohibimos esto en los Países Bajos, será necesario que haya coherencia entre los estados miembros”, dijo Stevenson.
Sandbox utilizado en los Países Bajos
En Bruselas, la Comisión ha establecido el llamado Pacto sobre IA, que ayuda a las empresas a prepararse para la próxima Ley de IA a través de talleres y compromisos conjuntos. A nivel nacional, la AP también está organizando un proyecto piloto y de pruebas, con el Ministerio de I+D+i y Asuntos Económicos, para ayudar a que las empresas se familiaricen con las normas.
“Para el próximo sandbox, que estará operativo en 2026, queremos abrirnos a aquellos sistemas de IA que tendrán un impacto más amplio y que ayudarán a las empresas con ideas similares. Queremos dejarles claro cómo trabajar en esto de acuerdo con la Ley de IA”, dijo Stevenson.
Además de esto, a diciembre de 2022 el gobierno holandés publicó un registro público de algoritmos. La administración quiere que los algoritmos utilizados por el gobierno sean legalmente controlados para detectar discriminación y arbitrariedad en un intento por garantizar la transparencia y hacer que el resultado de los algoritmos sea más explicable.