in

¿Están las grandes tecnologías preparadas para abordar el extremismo?

Una noticia que afirmaba falsamente que la vacuna COVID-19 causó la muerte de un médico estadounidense fue el artículo más visto en Facebook en los EE. UU. Durante los primeros tres meses de 2021. En lugar de hacer pública la plataforma que promueve tal desinformación, Facebook sostuvo de nuevo en la publicación del informe hasta que The New York Times divulgado su existencia. Según los informes, Facebook fue preocupado que «haría quedar mal a la empresa».

Este es el último de una serie de intentos de Facebook y otras empresas de tecnología para evitar la responsabilidad por la difusión de información errónea, contenido extremista violento e incitaciones al terror en sus plataformas.

En respuesta, el mes pasado, un cumbre internacional se llevó a cabo en Bergen, Noruega, para conmemorar a las 77 víctimas de los ataques terroristas en Oslo y Utøya el 22 de julio de 2011. Desde entonces, el extremismo de derecha radical se ha convertido en una amenaza transnacional creciente, con un 320% de aumento en el número de ataques globales en los últimos cinco años.


¿Puede Alt-Tech ayudar a la extrema derecha a construir una Internet alternativa?

LEE MAS


En la cumbre, los talleres a puertas cerradas, las discusiones y las sesiones de preguntas y respuestas facilitaron un diálogo abierto y sólido entre las principales partes interesadas mundiales comprometidas con la lucha contra el terrorismo y el extremismo de derecha radical. Estos incluyeron representantes de Facebook, Microsoft, Google, Twitter, los gobiernos británico, estadounidense, neozelandés y noruego, el regulador de comunicaciones del Reino Unido OFCOM, el Foro Global de Internet para Contrarrestar el Terrorismo, la ONU, la UE y más.

Los organizadores del “22 de julio a las diez” publicaron el Plan de acción de Bergen, que describe cinco pasos para un enfoque colaborativo de múltiples partes interesadas entre los gobiernos, las plataformas tecnológicas y las organizaciones de la sociedad civil con el objetivo de ayudar a abordar la propagación de contenido extremista violento y mitigar las crecientes tasas de radicalización en línea.

Caja negra

Si bien muchos investigadores ya no se suscriben a la visión tecnológicamente determinista de que las redes sociales son la única causa del extremismo de derecha radical, hay evidencia de que, de hecho, acelerar rápidamente el proceso. Un informe interno de Facebook de 2016 encontró que el 64% de las personas que se unieron a un grupo extremista en la plataforma lo hicieron porque el algoritmo de la compañía lo sugirió. Esto explica por qué muchas comunidades en línea, incluidos los grupos supremacistas blancos y masculinos, pueden actuar como puertas de entrada a grupos e ideologías más extremos.

Por diseño, los algoritmos de Facebook priorizan el contenido que recibe más clics, lo que a su vez amplifica el contenido inflamatorio y aumenta la efecto cámara de eco. Aparentemente, a Facebook simplemente no le interesa emitir juicios sobre la calidad del contenido compartido en la plataforma, dado que su modelo de negocio se centra en maximizar los ingresos de los anuncios. Después del informe de Facebook de 2016, por ejemplo, se rechazaron las alteraciones del «algoritmo de recomendación», ya que se consideraron «anti-crecimiento. «

El primer paso del Plan de Acción de Bergen exige un enfoque más estricto y más integral para contrarrestar el extremismo violento a través de un enfoque que involucre a toda la sociedad, incluidos los gobiernos, el sector empresarial y las organizaciones de la sociedad civil.

Las sesiones con el Departamento de Estado de EE. UU. Plantearon preocupaciones válidas sobre cómo funcionaría esto en la práctica, sobre todo dada la resistencia bien documentada de las empresas de tecnología a publicar información sobre sus algoritmos y la transparencia en general. Lo aparentemente impenetrable caja negra La naturaleza de sus motores de recomendación se ha utilizado para renunciar a la responsabilidad de su papel en la difusión de contenido extremo.

Si bien aún queda mucho por resolver, el Plan de Acción de Bergen tiene el potencial de proporcionar una investigación vital independiente y revisada por pares, lo que permite a los usuarios de Internet tomar mejores decisiones sobre la información que consumen y comparten en línea. El cuarto paso del Plan de Acción de Bergen recomienda el establecimiento de una red global de organizaciones de la sociedad civil con el fin de facilitar los métodos de intercambio para abordar todas las etapas de la radicalización en línea. Herramientas especializadas como Moonshot’s Método de redireccionamiento podría utilizarse para identificar y proteger a las personas vulnerables, dirigiéndolas hacia contenidos más seguros y consejeros capacitados.

Otro aspecto importante de la red mundial es evitar la duplicación de la investigación en las organizaciones internacionales de lucha contra el terrorismo.

Toda la sociedad

Otro enfoque de la conferencia fue el papel de la moderación del contenido. Históricamente, las empresas de tecnología han abdicado repetidamente de la responsabilidad de eliminar contenido de derecha radical. Plataformas de redes sociales recibidas critica fresca después de que no eliminaron los mensajes extremistas que ayudaron a incitar a la violencia en el Capitolio de los Estados Unidos el 6 de enero.

Durante la conferencia de Bergen, representantes de Google y Facebook discutieron los desafíos de crear una definición global de terrorismo que no afecte el derecho a la libertad de expresión, especialmente la Primera Enmienda a la Constitución de los Estados Unidos. Sin embargo, diez años después de los trágicos acontecimientos del 22 de julio de 2011, el manifiesto terrorista “2083” de Anders Behring Breivik sigue siendo uno de los principales resultados de búsqueda de Google en Noruega. Esto soloMatthew Feldman, director del Centro de Análisis de la Derecha Radical, sostiene que el enfoque de Google es inadecuado.

El Plan de Acción de Bergen propone que se utilice un cuerpo independiente de moderadores en todas las empresas de tecnología para permitir una mejor transparencia y responsabilidad en torno a la moderación. Los moderadores también recibirían apoyo con recursos de asesoramiento y salud mental, ya que la naturaleza del contenido al que están expuestos puede ser inmensamente angustiante.

Asimismo, las decisiones de política estarían respaldadas por datos transparentes y verificados externamente para mostrar los impactos medibles de cada política. Los beneficios de este enfoque se muestran en Twitter Desplazamiento de Donald Trump. Una semana después de la prohibición del expresidente de los EE. UU., Falsas afirmaciones de manipulación electoral cayó de 2,5 millones a 688.000, una disminución del 73%.

En este plan, los moderadores también serían capacitados para reconocer contenido terrorista y extremista violento en una multitud de idiomas y contextos culturales. Esto proporcionaría un enfoque humanista para descifrar la retórica y el discurso extremos, una mejora obvia en el proceso actual, demasiado automatizado, responsable de la mayoría de los casos. eliminación de contenido.

Un grupo independiente de moderadores experimentados podría abordar mejor los problemas más matizados de la cultura de cancelación y la libertad de expresión en casos marginales o muy cargados, al tiempo que conserva el compromiso de los usuarios marginados y minimiza la polarización.

Según lo expresado por un ex empleado de Pinterest Ifeoma Ozoma, abordar la propagación de contenido dañino en línea se reduce a la convicción: “Si quieres comprender cuán no accidental es todo esto, piensa en la pornografía. ¿Con qué frecuencia encuentras pornografía al azar en Facebook, Twitter, YouTube o en cualquier otro lugar? No tan a menudo.»

Lograr que las empresas tecnológicas respalden el Plan de acción de Bergen puede ser el mayor desafío para su éxito. Requerirá volver a centrar los esfuerzos de las grandes tecnologías en torno al deber de cuidar a los usuarios en lugar del crecimiento y las ganancias. Sin embargo, un enfoque de toda la sociedad requiere su participación.

Las políticas que ofrecen incentivos financieros a las empresas de redes sociales se han mostrado prometedoras, al igual que algunas que imponen castigos, como la Ley de aplicación de redes en Alemania que multas empresas de redes sociales hasta 50 millones de euros (58,7 millones de dólares) por no eliminar rápidamente el contenido extremista violento.

En última instancia, una solución de múltiples partes interesadas, incluidos los gobiernos, las plataformas tecnológicas y la sociedad civil, que cada sector pueda adoptar de manera significativa es una tarea ambiciosa pero vital para prevenir eventos futuros como la insurrección del Capitolio y los ataques terroristas de la derecha radical como la tragedia de 2011. en Noruega.

*[Fair Observer is a media partner of the Centre for Analysis of the Radical Right.]

Las opiniones expresadas en este artículo pertenecen al autor y no reflejan necesariamente la política editorial de Fair Observer.

Fuente

Written by Redacción NM

Deja una respuesta

Los investigadores encontraron el cráneo y otros huesos de un Triceratops.  El 'enganche de remolque' o hueso del cóndilo occipital (en la imagen), conecta el cráneo con las vértebras del cuello

Cuatro dinosaurios, incluido Triceratops y posiblemente nuevas especies descubiertas en Montana

Una mujer misteriosa encontrada ensangrentada y magullada en una costa rocosa en Croacia es una ex diseñadora de joyas para celebridades

La mujer misteriosa que apareció en Croacia es una eslovaca sin hogar que solía hacer joyas para las estrellas