Por Chris Walker
Este artículo fue publicado originalmente por La verdad
Los usuarios demócratas tenían un 7,5 por ciento más de probabilidades de obtener contenido respaldado por el Partido Republicano que videos que coincidieran con sus propias opiniones políticas.
Un nuevo estudio que examina los algoritmos del sitio de redes sociales TikTok parece sugerir que el contenido que los usuarios recibieron en la plataforma tuvo un sesgo políticamente más conservador durante las elecciones presidenciales de 2024, independientemente de las preferencias personales del usuario.
Los investigadores Talal Rahwan y Yasir Zaki del campus de Abu Dhabi de la Universidad de Nueva York crearon más de 300 robots «ficticios» cuentas a imitar a los usuarios de la vida real durante la carrera de 2024. Los robots “vivían” en Nueva York, de tendencia demócrata, en Texas, de tendencia republicana, y en el estado “púrpura” de Georgia.
Después de crear las cuentas, los investigadores entrenaron a algunos para seguir y reaccionar positivamente a los mensajes demócratas, mientras que otros fueron entrenados para apoyar el contenido republicano. Posteriormente, los investigadores monitorearon las páginas «Para ti» de las cuentas durante 27 semanas durante la campaña, analizando más de 280.000 videos sugeridos por TikTok.
Para los robots republicanos, el resultado era predecible: el algoritmo dio como resultado una probabilidad 11,5 por ciento mayor de que vieran más contenido de tendencia republicana que publicaciones de tendencia demócrata.
Pero para los robots demócratas, fue diferente. Esas cuentas tenían un 7,5 por ciento más de probabilidades de ver publicaciones republicanas que demócratas.
«Nuestros hallazgos muestran desequilibrios partidistas en la exposición de la información política en una plataforma dominada por recomendaciones algorítmicas, con implicaciones para la gobernanza de la plataforma y el discurso democrático», escribieron los investigadores en su estudio, que fue publicado en Naturaleza esta semana.
«Surge la pregunta de si el contenido partidista recomendado en TikTok está sesgado hacia un partido sobre el otro», agregaron los autores.
TikTok respondió a los hallazgos del estudio, afirmando que sus conclusiones eran en gran medida incorrectas. En un comunicado, la empresa afirmó:
Este experimento artificial con cuentas falsas no refleja cómo la gente usa realmente TikTok. En realidad, las personas descubren y ven una amplia variedad de contenido en nuestra plataforma, al que dan forma continuamente y pueden controlar a través de más de una docena de herramientas que los autores parecen desconocer.
Pero los autores del estudio defendieron sus conclusiones.
«Nuestro hallazgo no se trata sólo de refuerzo; a las cuentas demócratas se les mostró significativamente más contenido antidemócrata que a las cuentas republicanas se les mostró contenido anti-republicano», dijo Rahwan, hablando con el guardián sobre los hallazgos del estudio.
«El algoritmo no solo daba a la gente lo que quería; le daba a un lado más de lo que el otro dice sobre ellos», añadió Rahwan.
La forma en que los sitios de redes sociales diseñan sus algoritmos (y si están sesgados hacia un partido político u otro, accidental o intencionalmente) podría tener repercusiones reales para las elecciones y la dirección política del país. De hecho, según datos recopilados por Pew Research, el 57 por ciento de los estadounidenses utilizó dispositivos digitales “a menudo” para recibir noticias en 2024, más que cualquier otro medio, incluida la televisión (33 por ciento) y la radio (11 por ciento).
“En un entorno donde los márgenes son estrechos, vale la pena tomar en serio las diferencias sistemáticas en el tipo de información política recomendada a decenas de millones de votantes jóvenes”, dijo Zaki.
Este artículo fue publicado originalmente por Truthout y tiene licencia Creative Commons (CC BY-NC-ND 4.0). Mantenga todos los enlaces y créditos de acuerdo con nuestras pautas de republicación.



















