Menu
in

Los ‘me gusta’ en línea para publicaciones tóxicas en las redes sociales generan más mensajes (y más odiosos)

Los 'me gusta' en línea para publicaciones tóxicas en las redes sociales generan más mensajes (y más odiosos)

El desenfrenado aumento de mensajes de odio en las redes sociales es un flagelo en la sociedad actual dominada por la tecnología. Racismo, homofobia, xenofobia e incluso ataques personales a personas que tienen la audacia de no estar de acuerdo con la opinión política de otra persona: estas y otras formas de odio en línea presentan un lado feo de la humanidad.

La burla en las redes sociales aparece en términos viles y profanos a la vista de todos. Obviamente, el único propósito de publicar mensajes de odio en línea es acosar y dañar a las víctimas, ¿verdad?

No necesariamente, según estudios recientes sobre mensajes de odio en las redes sociales. Aunque ver comentarios de odio es sin duda perturbador, una nueva investigación sugiere que hay una razón diferente por la que las personas publican mensajes de odio: para Obtener atención y obtener aprobación social. de usuarios de redes sociales con ideas afines. Es una actividad social. Es estimulante ser el más desagradable o el más sarcástico y recibir muchos aplausos o corazones. La evidencia anecdótica respalda la base social del odio en línea, y nuevas investigaciones empíricas lo respaldan.

En Más de 30 años de investigación sobre la interacción online., He documentado cómo las personas hacen amigos y establecen relaciones en línea. Ahora parece que la misma dinámica que puede hacer que algunas relaciones en línea sean intensamente positivas también puede alimentar sentimientos amistosos entre quienes se unen en línea para expresar enemistad hacia grupos de identidad y objetivos individuales. Es un «fiesta del odio,» más o menos.

El odio en línea es un fenómeno social

Cuando miras los mensajes de odio en línea, comienzas a notar pistas que sugieren, la mayoría de las veces, que los promotores del odio están publicando mensajes entre sí, no a aquellos a quienes sus mensajes implican y denigran.

Por ejemplo, los supremacistas blancos y los neonazis a menudo incluyen códigos y símbolos que tienen un significado compartido para el grupo interno pero que son opacos para los de afuera, incluidas las mismas personas a las que sus mensajes vilipendian. Incluir «88» en el mensaje, hashtag o identificador es uno de esos códigos; el Léxico de símbolos de odio de la Liga Antidifamación explica que la octava letra del alfabeto es H. Y 88, por tanto, es HH, o Heil Hitler.

Otra pista de que el odio es para los que odian es la forma en que ha pasado de las principales redes sociales a sitios marginales que se han vuelto tan odiosos e inquietantes que es difícil imaginar que algún miembro de un grupo objetivo quiera examinar esos espacios. Los sitios marginales dicen que promueven la libertad de expresión ilimitada en línea. Pero al hacerlo, atraen a usuarios que escriben publicaciones que son ampliamente inaceptables y que no durarían ni un minuto en sitios convencionales con estándares comunitarios y moderación de contenido.

Los tipos de mensajes que rápidamente serían marcados como discurso de odio en cualquier entorno fuera de línea llegan a dominar los hilos y discusiones en algunos de estos espacios. Los usuarios seleccionan repositorios de memes –por ejemplo, las colecciones antijudías, anti-LGBTQ y “nuevas (n-palabras)”– que son espantosas para la mayoría de las personas pero divertidas para quienes participan en estos apartados cuartos traseros virtuales. No son espacios donde los objetivos de estos epítetos puedan deambular.

Unirse construye comunidad

Investigaciones adicionales dan crédito a la hipótesis de que los que odian buscan la aprobación social mutua. investigadores de internet Gianluca Stringhini, Jeremy Blackburn y sus colegas han estado rastreando lo que llaman “incursiones” multiplataforma durante una década.

Así es como funciona. Un usuario de una plataforma recluta a otros usuarios para atacar y acosar a alguien en otra plataforma (por ejemplo, el creador de un vídeo específico en YouTube). La publicación del autor contiene un enlace al video de YouTube y una descripción de algún problema de raza o género del que aprovecharse, inculcando la necesidad de actuar entre los posibles cómplices. Seguidores dirígete a YouTube y continúallenando la sección de comentarios con mensajes de odio.

Parece que el objetivo del ataque es antagonizar a la víctima en lugar de construir vínculos entre los antagonistas. Y, por supuesto, el efectos en la persona objetivo puede ser devastador.

Los carteles en línea alientan los mensajes tóxicos de sus pares y saborean su aprobación social.
ianmcdonnell/E+ vía Getty Images

Pero entre bastidores, los atacantes regresan a la plataforma donde se organizó el complot. Se jactan unos de otros de lo que hicieron. Publican capturas de pantalla de la página de YouTube para mostrar sus actos denigrantes. Se felicitan mutuamente. Después de todo, era para llamar la atención y la aprobación, en consonancia con la teoría de la aprobación social del odio en línea.

La aprobación social lleva a los usuarios a extremos mayores

También están surgiendo pruebas más directas del efecto de la aprobación social en los mensajes de odio. Investigador de comportamiento en línea Yotam Shmargad y sus colaboradores han estudiado los sitios web de debates en línea de los periódicos. Cuando las personas obtienen «votos positivos» por los comentarios antisociales que han publicado, se vuelven es más probable que publique comentarios antisociales adicionales.

Un estudio reciente realizado por mis colegas Julia Jiang, luca luceri y Emilio Ferrara analizó a los usuarios de X, la plataforma anteriormente conocida como Twitter, y qué sucedió cuando recibieron señales de aprobación social por sus tweets xenófobos. Cuando los tweets tóxicos de los usuarios obtuvieron una cantidad inusualmente alta de «me gusta» de otros usuarios, sus mensajes posteriores fueron aún más tóxicos. Cuanto más retuiteaban sus mensajes otros, más carteles redoblaban con un odio más extremo.

Estos hallazgos no hacen nada para disminuir el verdadero dolor y la ira que surgen justificadamente cuando las personas se ven a sí mismas o a sus grupos de identidad menospreciados en línea.

La teoría de la aprobación social del odio en línea no explica cómo las personas llegan a odiar a otros o a volverse intolerantes en primer lugar. Sin embargo, sí proporciona una nueva explicación de la expresión del odio en las redes sociales y de cómo las gratificaciones sociales alientan el flujo y reflujo de esta práctica problemática.

Fuente

Written by Redacción NM

Salir de la versión móvil