in

Después de que se propaga el video de grabación de Buffalo, las plataformas sociales enfrentan preguntas

Buffalo shooting, Buffalo, America, Racial attacks, racial killings, World news, Indian express, Indian express news, current affairs

En marzo de 2019, antes de que un hombre armado asesinara a 51 personas en dos mezquitas en Christchurch, Nueva Zelanda, se transmitió en vivo en Facebook para transmitir su ataque. En octubre de ese año, un hombre en Alemania transmitió su propio tiroteo masivo en vivo en Twitch, el sitio de transmisión en vivo propiedad de Amazon popular entre los jugadores.

El sábado, un hombre armado en Buffalo, Nueva York, montó una cámara en su casco y transmitió en vivo en Twitch mientras mataba a 10 personas e hirió a tres más en una tienda de comestibles en lo que las autoridades dijeron que era un ataque racista. En un manifiesto publicado en línea, Payton S. Gendron, el joven de 18 años a quien las autoridades identificaron como el tirador, escribió que se había inspirado en el pistolero de Christchurch y otros.

Twitch dijo que reaccionó rápidamente para eliminar el video del tiroteo en Buffalo, eliminando la transmisión dos minutos después del comienzo de la violencia. Pero dos minutos fueron tiempo suficiente para que el video se compartiera en otros lugares.

Para el domingo, los enlaces a las grabaciones del video habían circulado ampliamente en otras plataformas sociales. Un clip del video original, que tenía una marca de agua que sugería que había sido grabado con un software de grabación de pantalla gratuito, se publicó en un sitio llamado Streamable y se vio más de 3 millones de veces antes de que fuera eliminado. Y un enlace a ese video se compartió cientos de veces en Facebook y Twitter horas después del tiroteo.

Los tiroteos masivos, y las transmisiones en vivo, plantean preguntas sobre el papel y la responsabilidad de los sitios de redes sociales para permitir que prolifere el contenido violento y de odio. Muchos de los pistoleros en los tiroteos han escrito que desarrollaron sus creencias racistas y antisemitas rastreando foros en línea como Reddit y 4chan, y que se sintieron estimulados al ver a otros tiradores transmitir sus ataques en vivo.

«Es un hecho triste del mundo que este tipo de ataques van a seguir ocurriendo, y la forma en que funciona ahora es que también hay un aspecto de las redes sociales», dijo Evelyn Douek, investigadora principal de Knight First de la Universidad de Columbia. Instituto de Enmienda que estudia la moderación de contenido. “Es totalmente inevitable y previsible en estos días. Es solo una cuestión de cuándo”.

Las preguntas sobre las responsabilidades de los sitios de redes sociales son parte de un debate más amplio sobre la agresividad con la que las plataformas deben moderar su contenido. Esa discusión se ha intensificado desde que Elon Musk, CEO de Tesla, acordó recientemente comprar Twitter y ha dicho que quiere hacer que el discurso sin restricciones en el sitio sea un objetivo principal.

Los expertos en moderación de contenido y redes sociales dijeron que la respuesta rápida de Twitch fue lo mejor que se podía esperar razonablemente. Pero el hecho de que la respuesta no impidió que el video del ataque se difundiera ampliamente en otros sitios también plantea la cuestión de si la capacidad de transmisión en vivo debería ser tan fácilmente accesible.

“Estoy impresionado de que lo entendieron en dos minutos”, dijo Micah Schaffer, un consultor que ha liderado decisiones de confianza y seguridad en Snapchat y YouTube. “Pero si la sensación es que incluso eso es demasiado, entonces realmente estás en un callejón sin salida: ¿Vale la pena tener esto?”.

En un comunicado, Angela Hession, vicepresidenta de confianza y seguridad de Twitch, dijo que la acción rápida del sitio fue un «tiempo de respuesta muy fuerte considerando los desafíos de la moderación de contenido en vivo y muestra un buen progreso». Hession dijo que el sitio estaba trabajando con el Foro Global de Internet para Contrarrestar el Terrorismo, una coalición sin fines de lucro de sitios de redes sociales, así como otras plataformas sociales para evitar la difusión del video.

“Al final, todos somos parte de una Internet, y ahora sabemos que ese contenido o comportamiento rara vez, o nunca, permanecerá contenido en una plataforma”, dijo.

Puede que no haya respuestas fáciles. Plataformas como Facebook, Twitch y Twitter han avanzado mucho en los últimos años, dijeron los expertos, en la eliminación más rápida de contenido y videos violentos. A raíz del tiroteo en Nueva Zelanda, las plataformas sociales y los países de todo el mundo se unieron a una iniciativa llamada Christchurch Call to Action y acordaron trabajar de cerca para combatir el terrorismo y el extremismo violento. Una herramienta que han utilizado los sitios sociales es una base de datos compartida de hashes, o huellas digitales de imágenes, que pueden marcar contenido inapropiado y eliminarlo rápidamente.

Pero en este caso, dijo Douek, Facebook parecía haberse quedado corto a pesar del sistema hash. Las publicaciones de Facebook vinculadas al video publicado en Streamable generaron más de 43.000 interacciones, según CrowdTangle, una herramienta de análisis web, y algunas publicaciones estuvieron activas durante más de nueve horas.

Cuando los usuarios intentaron marcar el contenido como una violación de las reglas de Facebook, que no permiten contenido que “glorifica la violencia”, en algunos casos se les dijo que los enlaces no infringían las políticas de Facebook, según capturas de pantalla vistas por The New York Times.

Desde entonces, Facebook comenzó a eliminar publicaciones con enlaces al video, y un portavoz de Facebook dijo que las publicaciones violan las reglas de la plataforma. Cuando se le preguntó por qué se notificó a algunos usuarios que las publicaciones con enlaces al video no violaban sus estándares, el portavoz no tuvo una respuesta.

Twitter no había eliminado muchas publicaciones con enlaces al video del tiroteo y, en varios casos, el video se había subido directamente a la plataforma. Un portavoz de la compañía dijo inicialmente que el sitio podría eliminar algunas instancias del video o agregar una advertencia de contenido confidencial, luego dijo que Twitter eliminaría todos los videos relacionados con el ataque después de que el Times pidiera una aclaración.

Un portavoz de Hopin, el servicio de videoconferencia propietario de Streamable, dijo que la plataforma estaba trabajando para eliminar el video y eliminar las cuentas de las personas que lo habían subido.

Eliminar contenido violento es “como tratar de tapar los dedos en las fugas de una presa”, dijo Douek. «Va a ser fundamentalmente muy difícil encontrar cosas, especialmente a la velocidad a la que se propagan ahora».



Fuente

Written by Redacción NM

Sam Ryder se veía a la moda con un suéter color crema de gran tamaño con motivos de remolinos multicolores cuando llegó al The Zoe Ball Breakfast Show de BBC Radio 2 el lunes en Londres.

Sam Ryder se pone un suéter color crema con estampado de remolinos como BBC en Radio 2… después de ganar el segundo lugar en Eurovisión

Shireen Abu Akleh: EE. UU. y la UE condenan el ataque de la policía israelí durante el funeral del periodista asesinado

Shireen Abu Akleh: EE. UU. y la UE condenan el ataque de la policía israelí durante el funeral del periodista asesinado