Meta lanza una herramienta para evitar que la pornografía de venganza se propague en Facebook e Instagram, pero los usuarios preocupados por ser víctimas deben enviar imágenes y videos a una base de datos hash para hacer un caso
- La herramienta es un sitio web global llamado StopNCII.org, que significa ‘Stop Non-Consensual Intimate Images’
- Las personas a las que les preocupa que sus imágenes o videos íntimos hayan sido publicados o puedan publicarse en Facebook o Instagram pueden crear un caso a través del sitio web.
- Esto se hace cargando las imágenes o videos en el sitio web.
- Meta dice que el contenido se convierte en una huella digital, lo que les permite identificar o detectar el contenido explícito y afirma que ningún ojo humano los ve.
Meta lanzó una nueva herramienta el jueves que evita que la pornografía de venganza se propague en Facebook e Instagram, pero requiere que las personas envíen sus fotos y videos sexualmente explícitos a una base de datos de hash.
Cuando a alguien le preocupa que sus imágenes o videos íntimos hayan sido publicados o puedan publicarse en cualquiera de las plataformas de redes sociales, puede crear un caso a través de un sitio web global llamado StopNCII.org, que significa «Detener las imágenes íntimas no consensuadas».
Cada foto o video enviado recibe una huella digital o un valor hash único, que se utiliza para detectar y rastrear su copia que se compartió o intentó publicar sin el permiso de la persona.
Sin embargo, el sitio web fue creado con 50 socios globales y compartir imágenes íntimas y videos de usted mismo con un sitio web de terceros puede que no sienta bien a la mayoría de los usuarios, pero Meta dice que « no tendrán acceso ni almacenarán copias de las imágenes originales ». ‘
Un portavoz de Meta le dijo a DailyMail.com en un correo electrónico que ‘solo la persona que envía un caso a StopNCII.org tiene acceso a sus imágenes / videos’ y ‘todos los cálculos necesarios para calcular el hash de una imagen ocurren en el navegador, lo que significa’ las imágenes nunca abandonan el dispositivo de la persona ‘.
«Solo se envían casos a StopNCII.org y los valores hash de las imágenes o videos de la persona se comparten con las empresas de tecnología participantes como Meta», agregó el portavoz.
Desplácese hacia abajo para ver el video
Meta lanzó una nueva herramienta el jueves que evita que la pornografía de venganza se propague en Facebook e Instagram, pero requiere que las personas envíen sus fotos y videos sexualmente explícitos a un sitio web.
‘Solo los hashes, no las imágenes en sí, se comparten con StopNCII.org y las plataformas tecnológicas participantes’, compartió Antigone Davis, jefe global de seguridad de Meta, en un entrada en el blog.
«Esta función evita una mayor circulación de ese contenido NCII y mantiene esas imágenes de forma segura en posesión del propietario».
StopNCII.org se basa en un programa piloto lanzado en 2017 en Australia, cuando pidió al público fotos de ellos mismos para crear hashes que podrían usarse para detectar imágenes similares en Facebook e Instagram.
Y esta base es la que se está utilizando para detener el porno de venganza.
Cuando a alguien le preocupa que sus imágenes o videos íntimos se hayan publicado o puedan publicarse en cualquiera de las plataformas de redes sociales, puede crear un caso a través de un sitio web global llamado StopNCII.org.
Meta originalmente iba a configurar Facebook para permitir que las personas envíen sus imágenes o videos íntimos para evitar que se difundan, pero los medios sensibles habrían sido revisados por moderadores humanos durante el proceso antes de que se convirtieran en huellas digitales digitales únicas. NBC News informes.
Sabiendo esto, la empresa de redes sociales optó por incorporar a un tercero, StopNCII, que se especializa en abuso basado en imágenes, seguridad en línea y derechos de las mujeres.
«Solo se comparten hashes, no las imágenes en sí, con StopNCII.org y las plataformas tecnológicas participantes», escribió Davis.
Esta función evita una mayor circulación de ese contenido NCII y mantiene esas imágenes de forma segura en posesión del propietario.
StopNCII.org es para adultos mayores de 18 años que piensan que una imagen íntima de ellos puede compartirse, o ya se ha compartido, sin su consentimiento.
Un informe en 2019, publicado por NBC, Meta identifica casi 500.000 casos de pornografía de venganza cada mes.
Para lidiar con la afluencia de pornografía vengativa, Facebook emplea un equipo de 25 personas que, junto con un algoritmo desarrollado para identificar imágenes de desnudos, ayuda a investigar los informes y tomar fotografías.
Pero con StopNCII.org, los moderadores humanos se reemplazan con hashes que pueden detectar e identificar las imágenes, después de que las víctimas potenciales compartan el contenido explícito con Meta.
Anuncio publicitario