Las empresas de tecnología dicen que los nuevos estándares australianos harán que a la IA le resulte más difícil proteger la seguridad en línea

by Redacción NM
0 comment

Las empresas de tecnología dicen que las nuevas normas de seguridad australianas harán que, sin darse cuenta, sea más difícil para los sistemas de inteligencia artificial generativa detectar y prevenir el abuso infantil en línea y el material proterrorista.

En virtud de dos normas obligatorias destinadas a la seguridad infantil publicadas en forma de borrador por el regulador el año pasado, la comisionada de eSafety, Julie Inman Grant, propuso que los proveedores detecten y eliminen material de abuso infantil y material proterrorista «cuando sea técnicamente posible», además de interrumpir e impedir la aparición de material nuevo de esa naturaleza.

Los estándares cubren una variedad de tecnologías, incluidos sitios web, servicios de almacenamiento en la nube, mensajes de texto y aplicaciones de chat. También cubren servicios de IA generativa de alto impacto y modelos de aprendizaje automático de código abierto.

En una presentación a la consulta sobre los estándares publicada el jueves, WeProtect Global Alliance, un consorcio sin fines de lucro de más de 100 gobiernos y 70 empresas que luchan contra la explotación y el abuso sexual infantil en línea, destacó la naturaleza del problema que eSafety está tratando de abordar. Dijo que la IA de código abierto ya se está utilizando para producir material de abuso infantil y deepfakes, y que los estándares propuestos capturan las plataformas y servicios adecuados.

“Al centrarse en el potencial de uso indebido, el umbral refleja la realidad de que incluso los modelos de aprendizaje automático e inteligencia artificial con exposición directa limitada a datos confidenciales o conjuntos de datos que contienen datos ilícitos pueden seguir siendo utilizados indebidamente para crear contenido ilegal, como contenido sexual infantil 'sintético'. material de abuso y falsificaciones sexuales”.

Pero empresas de tecnología como Microsoft, Meta y Stability AI dijeron sus tecnologías se estaban desarrollando con barreras de seguridad para evitar que se utilizaran de esa manera.

Microsoft advirtió que los estándares, tal como están redactados, podrían limitar la efectividad de los modelos de seguridad de IA que se utilizan para detectar y señalar abuso infantil o material terrorista.

«Para garantizar que los modelos de IA y los sistemas de seguridad (como los clasificadores) puedan entrenarse para detectar y marcar dicho contenido, es necesario que la IA esté expuesta a dicho contenido y que se implementen procesos de evaluación para medir y mitigar los riesgos», dijo Microsoft.

“Los datos de capacitación completamente 'limpios' pueden reducir la efectividad de dichas herramientas y reducir la probabilidad de que funcionen con precisión y matices.

«Uno de los elementos más prometedores de las herramientas de IA para la moderación de contenidos es la capacidad de la IA avanzada para evaluar el contexto; sin datos de entrenamiento que respalden una evaluación tan matizada, corremos el riesgo de perder los beneficios de dicha innovación».

Stability AI advirtió de manera similar que la IA desempeñaría un papel importante en la moderación en línea, y que definiciones demasiado amplias podrían dificultar la determinación de qué se debe seleccionar para cumplir con los estándares propuestos.

Meta, la empresa matriz de Facebook, dijo que si bien su modelo Llama 2 tenía herramientas de seguridad y guías de uso responsable, sería difícil aplicar medidas de seguridad cuando se descargue la herramienta.

omitir la promoción pasada del boletín

«No nos es posible suspender el suministro de Llama 2 una vez que se ha descargado ni cancelar una cuenta, ni disuadir, interrumpir, detectar, informar o eliminar contenido de los modelos que se han descargado», dijo la compañía.

Google recomendó que la IA no se incluya en los estándares y, en cambio, se considere completamente como parte de la revisión gubernamental actual de la Ley de Seguridad en Línea y las Expectativas Básicas de Seguridad en Línea.

Las empresas de tecnología también se hicieron eco de los comentarios hechos por Apple la semana pasada de que los estándares deben establecer explícitamente que las propuestas para escanear servicios de mensajería y nube «cuando sea técnicamente factible» no comprometerán el cifrado, y que la viabilidad técnica cubrirá más que simplemente el costo de desarrollo para una empresa. tal tecnología.

En una declaración, Inman Grant dijo que los estándares no requerirían que la industria rompiera o debilitara el cifrado, monitoreara textos o escaneara indiscriminadamente grandes cantidades de datos personales, y el comisionado estaba considerando posibles enmiendas para aclarar este punto.

“Básicamente, eSafety no cree que la industria deba estar exenta de responsabilidad a la hora de abordar el contenido ilegal alojado y compartido libremente en sus plataformas. eSafety señala que algunos grandes servicios de mensajería cifrada de extremo a extremo ya están tomando medidas para detectar este contenido dañino”, dijo.

Las versiones finales de los estándares se presentarán al parlamento para su consideración a finales de este año, dijo Inman Grant.

Fuente

You may also like

logo_noticias_del_mundo_dark

Recopilación de las noticias mas relevantes del Mundo

 All Right Reserved. [email protected]