in

Facebook estaba preocupado por las violaciones del discurso de odio en Assam antes de las elecciones de 2021

Facebook cambiará las reglas sobre ataques a figuras públicas en sus plataformas

Un análisis del éxito de Facebook en la aplicación de sus reglas de contenido por parte de los empleados del gigante de las redes sociales ha demostrado cómo la compañía solo elimina una fracción de las publicaciones que violan sus reglas de discurso de odio, informó The Wall Street Journal el domingo, citando documentos internos revisados ​​por él. Una de las razones detrás de la incapacidad de Facebook para regular dicho contenido en su plataforma es la falta de capacitación que tiene su IA en idiomas extranjeros, según el informe, y agrega que en marzo de este año, los empleados de la compañía que se estaban preparando para las elecciones regionales en India observaron que el discurso de odio era un riesgo importante en Assam, donde hay una creciente violencia contra los musulmanes y otros grupos étnicos.

«Assam es motivo de especial preocupación porque no tenemos un clasificador de discurso de odio de Assam», según un documento interno de planificación de Facebook. La elección de la Asamblea legislativa en Assam se llevó a cabo del 27 de marzo al 6 de abril y vio a la Alianza Democrática Nacional liderada por el BJP retener el poder.

A principios de este mes, The Indian Express había informado, citando la denuncia presentada ante el regulador de valores de EE. UU. Por la denunciante y ex empleada de Facebook Frances Haugen, que la compañía estaba al tanto de las publicaciones que se estaban publicando en su plataforma que contenían información errónea o discursos de odio, pero podría No tome medidas ni marque este contenido debido a la “falta de clasificadores hindi y bengalí”. Los clasificadores se refieren a los algoritmos de detección de discursos de odio de Facebook. Según Facebook, agregó clasificadores de discurso de odio en hindi a partir de principios de 2020 e introdujo el bengalí más tarde ese año. Los clasificadores de violencia e incitación en hindi y bengalí se pusieron en línea por primera vez a principios de 2021.

Una consulta por correo electrónico enviada a Facebook no obtuvo respuesta.

El informe de WSJ, que cita a los empleados y los documentos internos de la empresa, también ha señalado ejemplos de contenido que los motores de inteligencia artificial de Facebook deberían haber detectado, pero no se han detectado. Dijo que la IA de Facebook no puede identificar consistentemente «videos de disparos en primera persona, diatribas racistas e incluso, en un episodio notable que desconcertó a los investigadores internos durante semanas, la diferencia entre peleas de gallos y accidentes automovilísticos».

Si bien el informe afirma que Facebook solo elimina «un porcentaje bajo de un solo dígito» del contenido de discursos de odio, el portavoz de la compañía en su respuesta al periódico ha dicho que estos porcentajes se referían a publicaciones que se eliminaron mediante IA, y no incluyeron Otras acciones que toma la empresa para reducir la cantidad de personas que ven el discurso de odio, incluida la clasificación de las publicaciones en un nivel inferior en las noticias.

Específicamente para India, Facebook ha dicho anteriormente que sus revisores humanos revisan el contenido en 20 idiomas indios: hindi, bengalí, tamil, malayalam, punjabi, urdu, kannada, marathi, gujarati, asamés, telugu, oriya, sindhi, mizo, marwari, chhattisgarhi. , Tulu, Maithili / Bhojpuri, Konkani y Meitei.

«Assam es motivo de especial preocupación porque no tenemos un clasificador de discurso de odio de Assam», según un documento interno de planificación de Facebook.

Fuente

Written by Redacción NM

Deja una respuesta

Rhea Ripley le pide a los fanáticos que la ayuden a encontrar su equipo perdido con el título de equipo femenino

Rhea Ripley le pide a los fanáticos que la ayuden a encontrar su equipo perdido con el título de equipo femenino

Pip Edwards muestra su amplio escote en un colorido traje de baño escotado