martes, febrero 11, 2025

La lucha legal contra la pornografía infantil generada por IA es complicada: un erudito legal explica por qué y cómo la ley podría ponerse al día

La ciudad de Lancaster, Pensilvania, fue sacudida por las revelaciones en diciembre de 2023 de que dos adolescentes locales compartió cientos de imágenes desnudas de niñas en su comunidad a través de un chat privado en la plataforma de chat social Discord. Los testigos dijeron que las fotos fácilmente podrían haberse confundido con las reales, pero eran falsas. Los niños habían usado una herramienta de inteligencia artificial para superponer fotos reales de las caras de las niñas en imágenes sexualmente explícitas.

Con torios de fotos reales disponibles en las plataformas de redes sociales, y las herramientas de IA se vuelven más accesibles en toda la web, se han desarrollado incidentes similares en todo el país, de California a Texas y Wisconsin. Una encuesta reciente realizada por el Centro de Democracia y Tecnología, una organización sin fines de lucro con sede en Washington DC, encontró que el 15% de los estudiantes y el 11% de los maestros sabía de al menos un defake profundo Eso representaba a alguien asociado con su escuela de manera sexualmente explícita o íntima.

La Corte Suprema ha concluido implícitamente que las imágenes pornográficas generadas por computadora que se basan en imágenes de niños reales son ilegales. El uso de tecnologías generativas de IA para hacer imágenes pornográficas de Menores profundos de profundidad casi seguramente cae bajo el alcance de ese fallo. Como erudito legal La OMS estudia la intersección del derecho constitucional y las tecnologías emergentes, veo un desafío emergente para el status quo: imágenes generadas por IA que son completamente falsas pero indistinguibles de las fotos reales.

Vigilancia de material de abuso sexual infantil

Si bien la arquitectura de Internet siempre ha dificultado el control de lo que se comparte en línea, hay algunos tipos de contenido en el que la mayoría de las autoridades reguladoras de todo el mundo están de acuerdo. La pornografía infantil está en el superior de esa lista.

Durante décadas, las agencias de aplicación de la ley han trabajado con las principales compañías tecnológicas para identificar y eliminar este tipo de material de la web, y para enjuiciar a quienes lo crean o circulan. Pero el advenimiento de la inteligencia artificial generativa y las herramientas fáciles de acceder como las utilizadas en el caso de Pensilvania presentan un nuevo y molesto desafío por tales esfuerzos.

En el campo legal, la pornografía infantil generalmente se conoce como material de abuso sexual infantil, o CSAM, porque El término mejor refleja El abuso que se muestra en las imágenes y videos y el trauma resultante para los niños involucrados. En 1982, la Corte Suprema dictaminó que la pornografía infantil no está protegida bajo la Primera Enmienda porque salvaguardar el Bienestar físico y psicológico de un menor es un interés gubernamental convincente que justifica las leyes que prohíben el material de abuso sexual infantil.

Ese caso, Nueva York v. Ferber, permitió efectivamente al gobierno federal y a los 50 estados criminalizar el material tradicional de abuso sexual infantil. Pero un caso posterior, Ashcroft v. Free Speech Coalition A partir de 2002, podría complicar los esfuerzos para criminalizar el material de abuso sexual infantil generado por AI. En ese caso, el tribunal anotó una ley que prohibía la pornografía infantil generada por computadora, lo que la hizo legal.

El tribunal descubrió que el interés del gobierno en proteger el bienestar físico y psicológico de los niños no estaba implicado cuando ese material obsceno se genera por computadora. «La pornografía virtual infantil no está» intrínsecamente relacionada «con el abuso sexual de los niños», escribió el tribunal.

Los estados se mueven para criminalizar el CSAM generado por AI

Según la organización de defensa del niño Suficiente abuso37 estados tienen CSAM generado por IA criminalizado o modificado con IAya sea enmendando las leyes materiales de abuso sexual infantil existente o promulgando otras nuevas. Más de la mitad de esos 37 estados promulgaron nuevas leyes o modificaron sus existentes en el último año.

California, por ejemplo, promulgada Proyecto de ley de la Asamblea 1831 El 29 de septiembre de 2024, que modificó su código penal para prohibir la creación, venta, posesión y distribución de cualquier «asunto generado digitalmente o artificial-inteligencia» que represente a una persona menor de 18 años que participa o simula conducta sexual.

https://www.youtube.com/watch?v=mp8sv8l4vre

La pornografía infantil Deepfake es un problema creciente.

Mientras que algunas de estas leyes estatales se dirigen al uso de fotos de personas reales para generar estas falsificaciones profundas, otras van más allá, definiendo el material de abuso sexual infantil como «cualquier imagen de una persona que parece ser menor de 18 años involucrada en la actividad sexual». Según suficiente abuso. Leyes como estas que abarcan imágenes producidas sin representaciones de menores reales pueden ser contrario al fallo Ashcroft v. Free Speech Coalition de la Corte Suprema.

Real vs. falso, y contando la diferencia

Quizás la parte más importante de la decisión de Ashcroft para problemas emergentes en torno al material de abuso sexual infantil generado por IA fue parte del estatuto que la Corte Suprema no derribó. Esa disposición de la ley prohibía «medios tecnológicos más comunes y más bajos para crear virtual (material de abuso sexual infantil), conocido como transformación de computadora», que implica tomar fotos de menores reales y transformarlas en representaciones sexualmente explícitas.

La decisión del Tribunal declaró que estas representaciones sexualmente explícitas de menores explícitas digitalmente «implican los intereses de los niños reales y que están en ese sentido más cerca de las imágenes en Ferber». La decisión hizo referencia al caso de 1982, Nueva York v. Ferberen el que la Corte Suprema confirmó un estatuto penal de Nueva York que prohibía a las personas promover a sabiendas las actuaciones sexuales por parte de los niños menores de 16 años.

Las decisiones del tribunal en Ferber y Ashcroft podrían usarse para argumentar que cualquier imagen sexualmente explícita generada por IA de menores reales no debe protegerse como libertad de expresión dada los daños psicológicos infligidos a los menores reales. Pero ese argumento aún no se ha presentado ante el tribunal. La decisión del tribunal en Ashcroft puede permitir imágenes sexualmente explícitas generadas por IA de menores falsos.

Pero el juez Clarence Thomas, quien estuvo de acuerdo en Ashcroft, advirtió que «si los avances tecnológicos frustraron el enjuiciamiento del» discurso ilegal «, el gobierno bien puede tener un interés convincente en prohibir o regular una categoría limitada de» discurso legal «para hacer cumplir de manera efectiva Leyes contra la pornografía hechas a través del abuso de niños reales «.

Con lo reciente avances significativos en la IApuede ser difícil, si no imposible, para los funcionarios encargados de hacer cumplir la ley distinguir entre imágenes de niños reales y falsos. Es posible que hayamos llegado al punto en que el material de abuso sexual infantil generado por computadora deba ser prohibido para que los gobiernos federales y estatales puedan hacer cumplir de manera efectiva las leyes destinadas a proteger a los niños reales, el punto que Thomas advirtió hace más de 20 años.

Si es así, es probable que el fácil acceso a herramientas de IA generativas obligue a los tribunales a lidiar con el problema.

Fuente

Últimas

Últimas

Ártículos Relacionades

CAtegorías polpulares

spot_imgspot_img