in

Facebook e Instagram usaron ‘tácticas agresivas’ dirigidas a los niños, afirma la demanda

DailyMail.com obtuvo una versión no redactada de una demanda contra Meta, presentada por padres que afirman que los niños han sufrido a manos de sus plataformas.

Meta usó a sabiendas «tácticas agresivas» que implicaban enganchar a los niños a las redes sociales «en nombre del crecimiento», según una demanda contra Meta que afirma que los niños han sufrido a manos de Facebook e Instagram.

Un ingeniero de software de Meta afirmó que «no es un secreto» cómo Facebook e Instagram usaron algoritmos meticulosos para promover el uso repetitivo y compulsivo entre menores, independientemente de si el contenido era dañino, y «no se disculparon por ello».

Las revelaciones redactadas se dieron a conocer en una demanda contra Meta, que fue revelada y vista por DailyMail.com.

A pesar de que el CEO March Zuckerberg dijo públicamente que las afirmaciones de que su compañía prioriza las ganancias sobre la seguridad y el bienestar simplemente ‘no son ciertas’, los archivos muestran explotación sexual infantil en ambas plataformas y alegan que ‘el algoritmo basado en el compromiso de Meta explotó el contenido extremo para generar más compromiso’. dice el documento.

El documento establece que el 20 por ciento de los usuarios de nueve a 13 años en Facebook e Instagram han tenido una experiencia sexual con un adulto en los sitios.

Esto es a pesar de las ‘políticas de tolerancia cero de Meta que prohíben abusos como la explotación infantil’.

DailyMail.com obtuvo una versión no redactada de una demanda contra Meta, presentada por padres que afirman que los niños han sufrido a manos de sus plataformas.

DailyMail.com se ha puesto en contacto con Meta, que no comentó sobre preguntas específicas.

Un portavoz del principal abogado de los demandantes designado por el tribunal le dijo a DailyMail.com: «Estos documentos nunca antes vistos muestran que las compañías de redes sociales tratan la crisis en la salud mental de los jóvenes como un problema de relaciones públicas en lugar de un problema social urgente provocado». por sus productos.

«Esto incluye enterrar la investigación interna que documenta estos daños, bloquear las medidas de seguridad porque disminuyen el ‘compromiso’ y desfinanciar a los equipos centrados en proteger la salud mental de los jóvenes».

La demanda, presentada en California el 14 de febrero, cita que más de un tercio de los niños de 13 a 17 años informan que usan una de las aplicaciones de los Demandados ‘casi constantemente’ y admiten que esto es ‘demasiado’, afirman los padres involucrados con el pleito

Las denuncias, luego consolidadas en varias demandas colectivas, afirmaban que las plataformas de redes sociales de Meta fueron diseñadas para ser peligrosamente adictivas, impulsando a niños y adolescentes a consumir contenido que aumenta el riesgo de trastornos del sueño, trastornos alimentarios, depresión y suicidio.

El caso también establece que los adolescentes y los niños son más vulnerables a los efectos adversos de las redes sociales.

La versión no redactada se publicó el 10 de marzo.

Afirma que Thorn, una organización internacional contra la trata de personas, publicó un informe en 2021 que detalla los problemas de explotación sexual en Facebook e Instagram y «proporcionó esta información a Meta».

El informe de Thorn muestra ‘ni bloqueos ni informes [offenders] protege a los menores del acoso continuo’ y el 55 por ciento de los participantes en el informe que bloquearon o denunciaron a alguien dijeron que fueron contactados en línea.

Y los niños más pequeños están particularmente en riesgo de depredadores.

La denuncia no sellada también afirma que el 80 por ciento de las ‘violaciones de conexiones de adultos/menores’ en Facebook se debieron a la función ‘Personas que tal vez conozcas’ de la plataforma.

.  Los archivos afirman que la compañía estaba al tanto de la explotación sexual infantil en Facebook e Instagram y alega que

. Los archivos afirman que la compañía estaba al tanto de la explotación sexual infantil en Facebook e Instagram y alega que «el algoritmo basado en el compromiso de Meta explotó el contenido extremo para generar más compromiso».

«Un estudio interno realizado alrededor de junio de 2020 concluyó que 500,000 cuentas de Instagram de menores de edad ‘reciben IIC’, que significa ‘interacciones inapropiadas con niños’, a diario», se lee en una declaración redactada en las páginas 135 y 136 del documento. .

‘Sin embargo, en ese momento, ‘Seguridad infantil [was] explícitamente señalado como no gol. . . . Así que si hacemos algo aquí, genial. Pero si no podemos hacer nada en absoluto, también está bien.

Desde entonces, Meta ha mejorado su capacidad para disminuir las interacciones inapropiadas entre adultos y jóvenes.

La firma ha creado una tecnología que le permite encontrar cuentas que han mostrado un comportamiento potencialmente sospechoso y evitar que esas cuentas interactúen con las cuentas de los jóvenes.

Y Meta afirma que no muestra las cuentas de los jóvenes a estos adultos cuando se desplazan por la lista de personas a las que les ha gustado una publicación o cuando miran la lista de Seguidores o Siguiendo de una cuenta.

Sin embargo, estos cambios se realizaron después de 2020.

La denuncia también establece que Meta había considerado hacer que los perfiles de los usuarios adolescentes fueran «privados de forma predeterminada» en julio de 2020, pero decidió no hacerlo después de enfrentar las «ganancias en seguridad, privacidad y políticas» contra el «impacto en el crecimiento».

En la página 135 de la demanda, una parte que fue redactada, afirma que Meta sabía que permitir que los adultos se contactaran con niños en Instagram «enoja a Apple hasta el punto de amenazar con sacarnos de la tienda de aplicaciones». cuándo evitaremos que los adultos envíen mensajes a menores en IG Direct.’

‘Eso siguió siendo cierto incluso después de que Meta recibió informes de que un menor de 12 años solicitado en su plataforma ‘era [the] hija de [an] Ejecutivo de seguridad de Apple’, continuó el comunicado.

Sin embargo, Meta se movió para hacer que las cuentas de usuarios adolescentes sean privadas de forma predeterminada en noviembre de 2022.

Un portavoz de Meta le dijo a DailyMail.com: «La afirmación de que desfinanciamos el trabajo para apoyar el bienestar de las personas es falsa».

La versión redactada de la denuncia dice: ‘En lugar de ‘tomar [this] en serio’ y ‘lanzando nuevas herramientas’ para proteger a los niños, Meta hizo lo contrario.

‘A fines de 2019, el ‘equipo de salud mental’ de Meta dejó de hacer cosas’, ‘fue desfinanciado’ y ‘se detuvo por completo’. Y, como se señaló, Meta permitió que las herramientas de seguridad que sabía que estaban rotas se presentaran como soluciones.

Un vocero de Meta le dijo a DailyMail.com que debido a que esta es una de las principales prioridades de la compañía, ‘de hecho, aumentamos la financiación, como lo demuestran las más de 30 herramientas que ofrecemos para ayudar a los adolescentes y las familias. Hoy en día, hay cientos de empleados que trabajan en toda la empresa para crear funciones con este fin”, dijo.

Otra información ‘impactante’ en la denuncia revelada informa la existencia del ‘proyecto madriguera de conejo’ de Meta.

Un portavoz de Meta le dijo a DailyMail.com que el proyecto de la madriguera del conejo no existe.

‘Alguien que se siente mal ve contenido que lo hace sentir mal, se involucra con él y luego su IG se inunda con w[ith] eso’, se lee en la versión no redactada.

‘Meta reconoce que los usuarios de Instagram en riesgo de suicidio o autolesiones tienen más probabilidades de ‘encontrar más contenido dañino de suicidio y autolesiones (a través de sugerencias de seguidores exploradas, relacionadas’).

El documento cita a Molly Russel, una adolescente londinense que se suicidó en 2017.

‘Meta había realizado una investigación interna que advertía que existía el riesgo de ‘incidentes similares como el de Molly Russell’ porque las características algorítmicas del producto eran ‘[l]“Llevar a los usuarios a contenido angustioso”, se lee en la página 84 del documento.

«Nuestros algoritmos de recomendaciones comenzarán a empujarlo hacia un agujero de conejo de contenido más atroz».

Han sido claros acerca de las posibles soluciones: los cambios específicos en el algoritmo conducen a una «caída significativa en la exposición» al contenido problemático.

‘Pero se han resistido a hacer cambios, por la razón explícita y con fines de lucro de que tales ajustes ‘vienen con un claro costo de participación’.

La demanda afirma que la postura constante de Meta sobre la importancia de la seguridad de los niños nunca fue seria y solo ‘teatro’.

‘Nuestros datos, tal como se muestran actualmente, son incorrectos. . . . Estamos compartiendo malas métricas externamente. . . respondemos por estos números’, según un empleado que se muestra en el documento.

Fuente

Written by Redacción NM

Qué significa el Día de la Igualdad Salarial para las mujeres negras |  La crónica de Michigan

Qué significa el Día de la Igualdad Salarial para las mujeres negras | La crónica de Michigan

Avión ruso choca y derriba dron estadounidense sobre el Mar Negro

Avión ruso choca y derriba dron estadounidense sobre el Mar Negro