domingo, marzo 16, 2025

Los avances de la inteligencia artificial podrían generar más vídeos de abuso sexual infantil, advierte un organismo de control

Los pedófilos están utilizando avances en inteligencia artificial para producir vídeos de abuso sexual infantil generados por IA cuyo volumen podría aumentar a medida que la tecnología mejore, según un organismo de control de seguridad.

La mayoría de los casos de este tipo que ha visto la Internet Watch Foundation implican la manipulación de material de abuso sexual infantil (CSAM) o pornografía para adultos ya existente, en el que se ha trasplantado el rostro de un niño a las imágenes. Un puñado de ejemplos implican vídeos creados íntegramente con inteligencia artificial y que duran unos 20 segundos, según la IWF.

La organización, que monitorea el abuso sexual infantil en todo el mundo, dijo que le preocupaba que pudieran surgir más videos de abuso sexual infantil creados con inteligencia artificial a medida que las herramientas detrás de ellos se volvieran más comunes y fáciles de usar.

Dan Sexton, director de tecnología de la IWF, dijo que si el uso de herramientas de video con IA siguiera la misma tendencia que las imágenes fijas creadas con IA, cuyo volumen ha aumentado a medida que la tecnología ha mejorado y se ha vuelto más ampliamente disponible, podrían surgir más videos de abuso sexual infantil.

“Diría tentativamente que si sigue la misma tendencia, entonces veremos más vídeos”, dijo, añadiendo que los vídeos futuros también podrían ser de “mayor calidad y realismo”.

Los analistas de la IWF dijeron que la mayoría de los videos vistos por la organización en un foro de la dark web utilizado por pedófilos eran deepfakes parciales, en los que se utilizan modelos de inteligencia artificial disponibles gratuitamente en línea para imponer la cara de un niño, incluidas imágenes de víctimas conocidas de abuso sexual infantil, en videos de abuso sexual infantil o pornografía para adultos existentes. La IWF dijo que encontró nueve de esos videos.

Según los analistas, una cantidad menor de videos creados completamente con inteligencia artificial tenían una calidad más básica, pero dijeron que este sería el «peor» caso de un video totalmente sintético.

La IWF agregó que las imágenes de CSAM creadas con IA se han vuelto más fotorrealistas este año en comparación con 2023, cuando comenzó a ver ese tipo de contenido.

Este año, el estudio de un único foro de la dark web (que anonimiza a los usuarios y los protege del seguimiento) reveló 12.000 nuevas imágenes generadas por inteligencia artificial publicadas en un período de un mes. Nueve de cada diez de esas imágenes eran tan realistas que podrían ser procesadas en virtud de las mismas leyes del Reino Unido que cubren el abuso sexual infantil real, afirmó la IWF.

La organización, que opera una línea directa para que el público denuncie abusos, dijo que había encontrado ejemplos de imágenes de CSAM creadas con IA que los delincuentes vendían en línea en lugar de CSAM no creado por IA.

La directora ejecutiva de la IWF, Susie Hargreaves, dijo: “Sin los controles adecuados, las herramientas de inteligencia artificial generativa proporcionan un terreno de juego para que los depredadores en línea hagan realidad sus fantasías más perversas y repugnantes. Incluso ahora, la IWF está empezando a ver que se comparte y vende más material de este tipo en sitios web comerciales de abuso sexual infantil en Internet”.

La IWF está presionando para que se modifiquen las leyes que penalizarán la elaboración de guías para generar material de abuso sexual infantil elaborado con inteligencia artificial, así como la creación de modelos de inteligencia artificial “afinados” que puedan producir dicho material.

La baronesa Kidron, activista independiente y defensora de la seguridad infantil, presentó este año una enmienda al proyecto de ley de protección de datos e información digital que habría criminalizado la creación y distribución de esos modelos. El proyecto de ley quedó en el olvido después de que Rishi Sunak convocara elecciones generales en mayo.

La semana pasada, The Guardian informó que el CSAM creado con inteligencia artificial estaba abrumando la capacidad de las fuerzas de seguridad estadounidenses para identificar y rescatar a víctimas de la vida real.

Fuente

Últimas

Últimas

Ártículos Relacionades

CAtegorías polpulares

spot_imgspot_img