Chatgpt está viendo un cambio hacia el derecho en el espectro político en cómo responde a las consultas de los usuarios, según un nuevo estudio.
Los investigadores chinos han descubierto que ChatGPT, el popular chatbot de inteligencia artificial (AI) de OpenAI, está viendo un cambio hacia el derecho en los valores políticos.
El estudio, publicado enThe Journal Humanities and Social Science Communications, Hizo varios modelos de chatgpt 62 preguntas sobre la prueba de brújula política, unaSitio web en línea que coloca a los usuarios en algún lugar del espectro político en función de sus respuestas.
Luego repitieron las preguntas más de 3.000 veces con cada modelo para descubrir cómo cambiaron sus respuestas con el tiempo.
Mientras que ChatGPT todavía mantiene los valores de «izquierda libertaria», los investigadores encontraron que modelos como GPT3.5 y GPT4 «muestran[ed] Una inclinación significativa hacia la derecha «, en cómo respondieron preguntas con el tiempo.
Los resultados son «notables dado el uso generalizado de modelos de idiomas grandes (LLM) y su influencia potencial en los valores sociales», dijeron los autores del estudio.
El estudio de la Universidad de Pekín se basa en otros publicados en 2024 por el Instituto de Tecnología de Massachusetts (MIT) y el Centro de Política del Reino UnidoEstudios.
Ambos informes señalaron un sesgo político de inclinación de izquierda en las respuestas dadas por LLMS y los llamados modelos de recompensa, tipos de LLM capacitados en datos de preferencias humanas.
Los autores señalan que estos estudios anteriores no analizaron cómo las respuestas de los chatbots de IA cambiaron con el tiempo cuando se les hicieron un conjunto similar de preguntas repetidamente.
Los modelos de IA deben estar bajo ‘escrutinio continuo’
Los investigadores dan tres teorías para este cambio hacia el derecho: un cambio en los conjuntos de datos utilizados para capacitar a sus modelos, la cantidad de interacciones con los usuarios o los cambios y actualizaciones al chatbot.
Modelos como ChatGPT «Aprender y adaptarse continuamente según la retroalimentación de los usuarios», por lo que su cambio hacia el derecho podría «reflejar cambios sociales más amplios en los valores políticos», continuó el estudio.
Los eventos mundiales de polarización, como la guerra de Rusia-Ukraine, también podrían amplificar lo que los usuarios están pidiendo a los LLM y las respuestas resultantes que obtienen.
Si se quedan sin control, los investigadores advirtieron que los chatbots de IA podrían comenzar a entregar «información sesgada», lo que podría polarizar aún más a la sociedad o crear «cámaras de eco» que refuerzan las creencias particulares de un usuario.
La forma de contrarrestar estos efectos es introducir el «escrutinio continuo» de los modelos de IA a través de auditorías e informes de transparencia para asegurarse de que las respuestas de un chatbot sean justas y equilibradas, dijeron los autores del estudio.