in

La seguridad de los niños en línea no es la principal prioridad para Instagram, incluso después de la tragedia de Molly Russell

Un moderador de Instagram acusó al gigante de las redes sociales de

Un moderador de Instagram acusó al gigante de las redes sociales de «recortar costos» cuando se trata de priorizar la seguridad a raíz de la investigación de Molly Russell.

Hablando bajo condición de anonimato, dijo que la compañía multimillonaria podría hacer ‘mucho, mucho mejor’ en la protección de los niños en la plataforma.

El moderador, que se unió un año después de que la joven de 14 años se quitara la vida, dijo que la mayoría de los que publicaban contenido de autolesiones parecían ser jóvenes adolescentes.

Admitiendo que «no estaba calificada» para tratar problemas de salud mental, dijo cómo sus colegas estaban «preocupados» por la gran cantidad de personas que podían permanecer en el sitio.

Un moderador de Instagram acusó al gigante de las redes sociales de

Un moderador de Instagram acusó al gigante de las redes sociales de «recortar costos» cuando se trata de priorizar la seguridad a raíz de la investigación de Molly Russell (en la foto).

El moderador, que se unió un año después de la muerte de Molly, de 14 años, dijo que la mayoría de los que publicaban contenido de autolesiones parecían ser adolescentes.

El moderador, que se unió un año después de la muerte de Molly, de 14 años, dijo que la mayoría de los que publicaban contenido de autolesiones parecían ser adolescentes.

Desde entonces, Instagram ha prohibido todo el contenido de autolesiones y suicidios, lo que el moderador describió como un paso «positivo» que hizo el trabajo «más fácil».

Significaba que el personal ya no tenía que ‘reflexionar sobre si la cantidad de cortes y sangre’ hacía necesario quitarlo o ‘intentar determinar si el usuario estaba en peligro o no’.

En una entrevista con el Daily Mail, dijo: «Sin embargo, creo que aún podrían hacerlo mucho, mucho mejor, y no creo que lo estén priorizando en términos de dinero». Siento que a veces están recortando costos.’

Molly Russell se convirtió en la primera niña en el mundo en la que se descubrió formalmente que las redes sociales contribuyeron a su muerte el viernes.

La investigación escuchó cómo la niña de 14 años participó con miles de publicaciones de autolesiones y vio videos de suicidio en Instagram antes de su muerte en 2017.

Dando evidencia, la jefa de salud y bienestar de la compañía, Liz Lagone, afirmó que la plataforma era «segura» para los niños y defendió su política de dejar dicho contenido si era «admisivo».

Cuando se le mostró el contenido con el que Molly había interactuado, el alto ejecutivo afirmó que no «promovía» la autolesión y, en cambio, beneficiaba a los usuarios al permitirles «expresarse».

El gigante de las redes sociales cambió su política en 2019 para prohibir todo ese material después del consejo de expertos de que podría alentar a los usuarios «sin querer» a realizar tales actos.

Ahora, por primera vez, un moderador de Instagram ha dado un vistazo a cómo la plataforma manejó el material que un forense dictaminó que «contribuyó». [Molly’s] la muerte de una manera más que mínima’.

Dando evidencia, la jefa de salud y bienestar de Meta, propietaria de Instagram, Liz Lagone (en la foto llegando a la investigación) afirmó que la plataforma era

Dando evidencia, la jefa de salud y bienestar de Meta, propietaria de Instagram, Liz Lagone (en la foto llegando a la investigación) afirmó que la plataforma era «segura» para los niños y defendió su política de dejar dicho contenido si era «admisivo».

El moderador, que se mudó a otro trabajo dentro de Meta hace unas semanas, dijo que tendrían que pasar alrededor de 200 cuentas por día, dándoles alrededor de uno o dos minutos en cada una.

Instagram alentó a los moderadores a «tomarse nuestro tiempo» cuando se trataba de contenido peligroso como autolesiones, dijo, pero todavía había «mucha presión de tiempo».

«La escala de lo que estábamos haciendo a veces podía parecer abrumadora».

Habiendo trabajado solo en ‘contabilidad básica’ en una oficina, dijo que no tenía experiencia ni capacitación en el tratamiento de problemas de salud mental.

‘No creo que me sintiera calificado. Simplemente hice lo que tenía que hacer’, dijo. ‘Teníamos pautas. Si hay alguna indicación de que el usuario estaba publicando algo como una despedida o un adiós, o publicando una foto de algo que tal vez sea un método para suicidarme, y fue dentro de las 24 horas, lo enviaremos a la policía.

Pero dependía de nosotros hacer esa llamada. A veces puede ser difícil saberlo. Siempre estaba tratando de errar por el lado de la precaución.

Oliver Sanders KC, el abogado de la familia Russell, preguntó a la Sra. Lagone durante la investigación por qué le correspondía a Instagram crear una plataforma para que los usuarios compartieran sus experiencias de autolesiones y suicidios y luego decidir si esto les ayudó o no, particularmente para los menores de 18 años que lo ven.

Ian Russell, el padre de Molly, durante una conferencia de prensa en el norte de Londres después de la investigación.

Ian Russell, el padre de Molly, durante una conferencia de prensa en el norte de Londres después de la investigación.

La moderadora dijo que las pautas antes del cambio habían sido ‘confusas’ y ‘poco intuitivas’, y ella y varios colegas se habían ‘preocupado’ por cuánto quedaba en la plataforma.

‘Sentí que había demasiadas cosas gráficas, y no tenía por qué estar allí. Pero se quedó porque era la admisión.

La mayor parte del contenido de autolesiones estaba siendo compartido por adolescentes, dijo, y muchas parecían tener un año más o menos que el límite de edad mínimo de 13 de la plataforma.

A menudo, tendrían dos cuentas: una pública y otra más privada que compartiría el contenido más peligroso. Esto a menudo estaría relacionado con el contenido del trastorno alimentario, con algunas historias publicadas desde su cama de hospital, dijo.

El cambio de política en 2019 marcó la primera vez que Instagram pareció comenzar a tratar la moderación «más en serio» y poner «más recursos» en ella.

Pero cuando se le preguntó si pensaba que Instagram era seguro para los adolescentes, la moderadora dijo: «Creo que no existen las redes sociales seguras: la seguridad es una ilusión».

El Daily Mail fue puesto en contacto con el moderador por la organización sin fines de lucro Foxglove, que está trabajando con moderadores de contenido de redes sociales para luchar por mejores condiciones y salarios.

Meta dijo que invirtió ‘miles de millones de dólares cada año’ en sus equipos de moderación y tecnología para mantener segura su plataforma.

La tecnología ahora juega un «papel más central» en la detección proactiva de contenido dañino y prioriza el «contenido más crítico para ser revisado por personas».

Todos los que revisan el contenido pasan por un «programa de capacitación en profundidad de varias semanas sobre nuestras Pautas de la comunidad y tienen acceso a un amplio apoyo psicológico para garantizar su bienestar».

Para obtener ayuda o apoyo, visite samaritans.org o llame gratis a los samaritanos al 116 123

Los padres afligidos respaldan la lucha de su familia

Los padres afligidos se unieron a la lucha del padre de Molly Russell para evitar que los gigantes de las redes sociales hagan una fortuna mientras les brindan a los niños imágenes que promueven el suicidio y las autolesiones.

El arquitecto Mariano Janin, cuya hija Mia, de 14 años, murió después de ser intimidada en línea, y Ruth Moss, cuya hija Sophie Parkinson se suicidó a los 13 años después de ver contenido perturbador en Internet, dijeron ayer que estaban apoyando al director de televisión Ian Russell, de 59 años.

El Sr. Janin, de 58 años, del norte de Londres, le dijo a The Sunday Times: ‘Ian logró algo importante… pero ahora necesitamos continuar con su campaña. Estaba viendo la investigación con lágrimas en los ojos. Sé también el dolor que Ian llevó durante los últimos cinco años porque también me ha pasado a mí. La investigación de Mia continuará el próximo año.

Tras la muerte de Sophie hace ocho años, la señorita Moss dijo que quiere que los gigantes en línea, incluidos los jefes individuales personalmente, enfrenten un proceso judicial por el papel que desempeñaron, y agregó: «Muy poco ha cambiado desde la muerte de Sophie».

Fuente

Written by notimundo

Sonia Guajajara es elegida como diputada en Sao Paulo

Sonia Guajajara es elegida como diputada en Sao Paulo

La carga viral de COVID-19 en Saskatchewan cae después de un pico notable

La carga viral de COVID-19 en Saskatchewan cae después de un pico notable