lunes, octubre 7, 2024

Pocos avances en la supresión de contenidos propalestinos, afirman las ONG

Un año después de la escalada entre Israel y Hamás, algunas ONG afirman que se han logrado pocos avances para detener la supresión de contenidos propalestinos.

ANUNCIO

Las ONG de derechos humanos dicen que se ha logrado poco progreso para detener la censura digital de las voces pro Palestina en las redes sociales, un año después de la escalada del conflicto entre Israel y Hamas.

La guerra estalló el año pasado cuando el grupo militante palestino Hamas lanzó un ataque en el sur de Israel donde tomó como rehenes a 250 personas y mató a 1.200.

Israel respondió con ataques aéreos y enviando tropas terrestres a la Franja de Gaza, y la guerra mató a unos 42.000 palestinos, según el Ministerio de Salud de Gaza.

Desde el ataque del 7 de octubre, el Observatorio Palestino de Violaciones de Derechos Digitales ha grabado más de 1.350 casos de censura en línea de las principales plataformas a través de una convocatoria abierta en su sitio web hasta el 1 de julio de 2024, y la mayoría de los informes están relacionados con Meta, TikTok, X y Youtube.

La muestra incluye historias de suspensiones, eliminación de contenido y restricciones de cuentas.

El Centro Árabe para el Avance de las Redes Sociales (7amleh) interpretó estos resultados en un informe de septiembre. informe como una “decisión deliberada” de “moderar agresivamente el contenido relacionado con Palestina”.

“Cuando las plataformas en línea permiten el discurso de odio y la incitación en sus plataformas, podrían ser culpables de ayudar a difundir contenido que deshumaniza a los palestinos y justifica sus castigos colectivos”, se lee en el informe.

Sin embargo, los grupos proisraelíes han criticado lo que dicen son intentos de hacer retroceder las restricciones de las redes sociales al antisemitismo.

Cómo se eliminan el contenido o las cuentas

La ONG Human Rights Watch documentó previamente cómo Meta bloqueó o eliminó el contenido de los usuarios en un informe publicado el año pasado. Diciembre.

Según Rasha Younes, investigadora principal de Human Rights Watch, a los usuarios primero se les revisaba una sola publicación, historia o comentario que hacía referencia a Palestina y luego se eliminaba con poca o ninguna explicación que apuntara a una violación de política específica.

Luego, Younes dijo que escuchó de usuarios a quienes se les restringió sus cuentas para comentar sobre otro contenido pro-palestino o se les inhabilitó durante entre 24 horas y tres meses.

Hay otros que describieron haber sido «prohibidos en la sombra», la idea de que sus publicaciones eran menos visibles para otros usuarios tanto en Instagram como en Facebook, continuó Younes.

Younes dijo que los usuarios que intentaron desafiar estas restricciones encontraron el mensaje «¿cometimos un error?» botón desactivado, lo que ella cree que «viola las propias políticas de Meta».

Para aquellos que están bloqueados, Younes dijo que “quizás no tengan ningún lugar adonde ir” para expresar su activismo político o la realidad vivida durante el conflicto.

Tanto los informes de HRW como los de 7amleh se basan en experiencias directas de los usuarios, pero los investigadores de ambos grupos quieren presionar a las empresas de redes sociales como Meta para que publiquen datos sobre qué publicaciones están bloqueadas mediante la moderación automática para que puedan realizar una investigación más profunda.

ANUNCIO

«Lo que estamos viendo es que las personas que trabajan en estas empresas quieren estos cambios… pero desafortunadamente no son quienes toman las decisiones, por lo que realmente no pueden cambiar nada», dijo a Euronews Next Taysir Mathlouthi, responsable de defensa de la UE de 7amleh. .

Las empresas tecnológicas ‘perfeccionan su enfoque’ durante el conflicto

Meta y TikTok se negaron a responder preguntas directas sobre sus políticas de moderación de contenido y, en cambio, remitieron a Euronews Next a informes recientes sobre sus respuestas.

En el informe de Meta de Septiembre, La compañía dijo que han estado perfeccionando su enfoque para “reflejar la dinámica cambiante” de la crisis humanitaria en Gaza y la toma de rehenes por parte de Hamas.

Pero la compañía admitió que algunas de sus decisiones políticas, como reducir los umbrales para la aplicación automatizada, “limitan inadvertidamente la discusión sobre eventos mundiales críticos”.

ANUNCIO

Sin embargo, un portavoz de Meta dijo a Euronews el año pasado que el informe de HRW «ignora las realidades de hacer cumplir nuestras políticas a nivel mundial durante un conflicto intenso, altamente polarizado y en rápida evolución», y agregó que «la implicación de que suprimimos deliberada y sistemáticamente una voz particular es falso”.

Para TikTok, dijo la compañía en un comunicado del 2 de octubre. informe eliminaron 4,7 millones de videos y suspendieron 300.000 transmisiones en vivo entre el 7 de octubre de 2023 y el 15 de septiembre de 2024, ya sea por promover a Hamás, incitar al odio o desinformar.

A principios de este año, la compañía dijo que habían añadido contenido “sionista” a su política de discurso de odio “cuando se utiliza… [as a] apoderado con identidad judía o israelí”.

«Esta política se implementó a principios de este año después de observar un aumento en el uso cada vez más frecuente de la palabra de manera odiosa», dijo TikTok.

ANUNCIO

Euronews Next se puso en contacto con YouTube y X, pero no recibió una respuesta inmediata.

Se insta a la UE a «presionar» a las empresas de redes sociales

Según Mathlouthi, de 7amleh, la UE también debe asumir una responsabilidad, incluso si el conflicto no está directamente dentro de sus fronteras.

La Comisión Europea aprobó recientemente la Ley de Servicios Digitales (DSA), que introdujo nuevos mecanismos para luchar contra el contenido ilegal en línea, según una descripción de la nueva ley.

Sin embargo, Mathlouthi dijo que no existe una definición real de lo que la ley considera “incitación o contenido dañino”, lo que dificulta presionar a estas grandes empresas a través de la ley.

ANUNCIO

«Queremos más regulación, queremos más control y queremos más transparencia, y esto nunca se logrará sin presión», dijo Mathlouthi.

El pasado mes de octubre, la UE pidió a X, Meta y TikTok información sobre cómo estaban regulando los contenidos sobre el conflicto. Ese es el primer paso para determinar si es necesaria una investigación completa según la DSA.

En diciembre, la Comisión Europea abrió formalmente actas contra X para abordar, entre otras preocupaciones, “la difusión de contenido ilegal en el contexto de los ataques terroristas de Hamás contra Israel”, decía un comunicado de prensa en ese momento.

Desde entonces, la UE ha iniciado investigaciones formales contra Meta, tiktok y Tiktok Lite para otras posibles violaciones de DSA, pero no mencionó explícitamente el contenido relacionado con Israel o Palestina como una de sus razones.

ANUNCIO

Euronews Next contactó a la Comisión Europea para confirmar si la información que recibieron de Meta y TikTok sobre sus políticas de moderación en la guerra entre Israel y Hamás era satisfactoria, pero no recibió una respuesta inmediata.



Fuente

Últimas

Últimas

Ártículos Relacionades

CAtegorías polpulares

spot_imgspot_img