in

Facebook publica el primer informe de cumplimiento mensual, dice que eliminó contenido de manera proactiva usando IA

Facebook


El conglomerado global de redes sociales Facebook tomó medidas proactivas en 1.8 millones de piezas de contenido que contenían desnudez y actividad sexual de adultos, 2.5 millones de piezas en contenido violento y gráfico, y alrededor de 25 millones de piezas de contenido que contenían spam, dijo la compañía en su primer informe mensual ordenado por el Lineamientos para intermediarios y Código de Ética en Medios Digitales.

El informe mensual, publicado el viernes, es para el período comprendido entre el 15 de mayo y el 15 de junio. La plataforma para compartir fotos y videos pequeños de Facebook, Instagram, también tomó medidas en 4,90,000 piezas de contenido que contenían desnudez o actividad sexual adulta, mientras que eliminó proactivamente 6, 68.000 piezas de contenido violento y gráfico.

“Utilizamos una combinación de inteligencia artificial, informes de nuestra comunidad y revisión de nuestros equipos para identificar y revisar el contenido según nuestras políticas. Continuaremos agregando más información y aprovecharemos estos esfuerzos hacia la transparencia a medida que desarrollemos este informe ”, dijo un portavoz de Facebook.

El 15 de julio, la plataforma publicará otro informe que contendrá detalles de las quejas de los usuarios recibidas por Facebook, Instagram y WhatsApp y las acciones tomadas por estas tres plataformas sobre dichas quejas.

De acuerdo con las pautas para intermediarios anunciadas en febrero y que entraron en vigor a partir del 26 de mayo, todos los intermediarios importantes de las redes sociales (aquellos con más de 50 lakh de usuarios en la India) debían publicar informes mensuales en los que se mencionaban los detalles de las quejas recibidas, los detalles de dichas quejas, y la acción tomada sobre ellos, y la cantidad de enlaces de comunicación específicos que la plataforma eliminó a través de un monitoreo proactivo.

“Esperamos publicar ediciones posteriores del informe con un retraso de 30 a 45 días después del período del informe para permitir suficiente tiempo para la recopilación y validación de datos. Continuaremos brindando más transparencia a nuestro trabajo e incluiremos más información sobre nuestros esfuerzos en informes futuros ”, dijo Facebook en su informe.

Si bien Facebook ha informado una tasa de detección proactiva de más del 95 por ciento en la mayoría de las variedades de contenido, como desnudez y actividad sexual de adultos, odio organizado, discurso de odio, drogas, armas de fuego, suicidio y autolesiones, su monitoreo proactivo en caso de acoso. y el acoso en la plataforma se ha mantenido bajo, casi el 37 por ciento.

De manera similar, en Instagram, mientras que la tasa de monitoreo proactivo en el caso de contenido como el odio organizado, la propaganda terrorista, el discurso de odio, el suicidio y las autolesiones se mantuvo por encima del 80%, el contenido de intimidación y acoso se mantuvo bajo en 43%.

“Utilizamos cada vez más la tecnología para detectar de forma proactiva el contenido infractor sin que nadie tenga que denunciarlo. Sin embargo, en el caso de intimidación y acoso, dado que este contenido es muy contextual y muy personal por naturaleza, en muchos casos, necesitamos que una persona nos informe de este comportamiento antes de que podamos identificarlo o eliminarlo ”, dijo un portavoz de Facebook.

A principios de esta semana, el gigante de los motores de búsqueda Google había publicado su informe mensual de conformidad con las nuevas Reglas de TI, en el que había dicho que entre el 1 de abril y el 30 de abril, la compañía había recibido 27,762 quejas de las cuales 26,707 o el 96 por ciento de las quejas. estaban relacionados con los derechos de autor. La compañía actuó y eliminó 59,350 piezas de contenido en base a las quejas presentadas por los usuarios durante el período, la mayoría de las cuales nuevamente estaban relacionadas con la infracción de derechos de autor.

Además de Google y Facebook, el sitio local de microblogueos Koo también había publicado su informe de cumplimiento mensual esta semana. En su informe, la plataforma ha dicho que de los 5.502 Koos reportados por los usuarios, se eliminaron 1.253 o el 27 por ciento de los contenidos. La plataforma también dijo que moderó proactivamente 54.235 Koos y eliminó 1.996 piezas de contenido de este tipo.



Fuente

Written by Redacción NM

Deja una respuesta

Wimbledon 2021: Pliskova pasa a octavos de final, Swiatek supera a Begu

bralette, Jacquemus

Modelo masculino camina por la rampa en bralette naranja en el desfile de moda francés; mirar