Una demanda afirmó que la influencia de un chatbot de IA provocó la muerte de un adolescente de 14 años. Esto es lo que debe saber sobre el impacto psicológico y los riesgos potenciales de las relaciones entre humanos y IA.
El mes pasado, una madre en Estados Unidos, Megan García, presentó una demanda contra la empresa Character.AI alegando que las interacciones entre su hijo de 14 años y un chatbot de IA contribuyeron a su suicidio.
La demanda afirma que el adolescente desarrolló un profundo vínculo con un chatbot Character.AI basado en un personaje ficticio de Juego de Tronos.
Alega que el chatbot se hizo pasar por un terapeuta autorizado y mantuvo conversaciones altamente sexualizadas con el adolescente hasta que una conversación finalmente lo animó a quitarse la vida.
«A estas alturas todos estamos familiarizados con los peligros que plantean las plataformas no reguladas desarrolladas por empresas tecnológicas sin escrúpulos, especialmente para los niños», dijo en un comunicado Meetali Jain, director del Tech Justice Law Project que representa a García.
“Pero los daños revelados en este caso son nuevos, novedosos y, sinceramente, aterradores. En el caso de Character.AI, el engaño es intencional y la propia plataforma es el depredador”.
Tras la demanda, Character.AI publicó un comunicado en la plataforma de redes sociales X, diciendo: «Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestro más sentido pésame a la familia. Como empresa, tomamos la decisión La seguridad de nuestros usuarios se toma muy en serio y continuamos agregando nuevas características de seguridad”.
Algunas de esas próximas características incluyen ajustes al modelo para usuarios menores de edad para minimizar la exposición a contenido sensible o sugerente, recordatorios de que la IA no es una persona real en cada chat y notificaciones para los usuarios que pasan una sesión de una hora en la plataforma.
A incidente similar en Bélgica El año pasado involucró a un hombre eco-ansioso que encontró compañía en Eliza, un chatbot de IA en una aplicación llamada Chai.
Según informes de su esposa, a medida que se desarrollaban las conversaciones con Eliza, el chatbot enviaba mensajes cada vez más emotivos, animándolo finalmente a poner fin a su vida como una forma de salvar el planeta.
A medida que los chatbots de IA se integran más en la vida de las personas, los riesgos de este tipo de interacciones digitales siguen en gran medida sin abordarse, a pesar de las consecuencias potencialmente graves.
¿Qué hace que las conexiones de IA sean tan adictivas para las personas?
«Los jóvenes a menudo se sienten atraídos por los compañeros de IA porque estas plataformas ofrecen lo que parece ser aceptación incondicional y disponibilidad emocional las 24 horas del día, los 7 días de la semana, sin la dinámica compleja y el posible rechazo que conllevan las relaciones humanas», Robbie Torney, director del programa de IA en Common Sense. Medios y autor principal de una guía sobre compañeros y relaciones con IA, dijo a Euronews Next.
A diferencia de las conexiones humanas, que implican mucha “fricción”, añadió, los compañeros de IA están diseñados para adaptarse a las preferencias de los usuarios, haciendo que sea más fácil tratar con ellos y atrayendo a las personas a vínculos emocionales profundos.
«Esto puede crear una dinámica artificial engañosamente cómoda que puede interferir con el desarrollo de la resiliencia y las habilidades sociales necesarias para las relaciones en el mundo real».
Según un base de datos compilada Según un grupo de expertos del Instituto Tecnológico de Massachusetts (MIT), uno de los principales riesgos asociados con la IA es la posibilidad de que las personas desarrollen apegos inapropiados a ella.
Los expertos explicaron que debido a que los sistemas de inteligencia artificial utilizan un lenguaje similar al humano, las personas pueden desdibujar la línea entre la conexión humana y la artificial, lo que podría conducir a una dependencia excesiva de la tecnología y posible malestar psicológico.
OpenAI dijo en una publicación de blog en agosto que tiene la intención de estudiar más a fondo «el potencial de dependencia emocional», diciendo que los nuevos modelos podrían crear el potencial de «exceso de dependencia y dependencia».
Además, algunas personas han informado experiencias personales de engaño y manipulación por parte de personas de IA, así como el desarrollo de conexiones emocionales que no habían previsto pero que experimentaron después de interactuar con estos chatbots.
Según Torney, este tipo de interacciones preocupan especialmente a los jóvenes que todavía se encuentran en el proceso de desarrollo social y emocional.
«Cuando los jóvenes se retiran a estas relaciones artificiales, pueden perder oportunidades cruciales para aprender de las interacciones sociales naturales, incluyendo cómo manejar los desacuerdos, procesar el rechazo y construir conexiones genuinas», dijo Torney.
Añadió que esto podría conducir a la dependencia emocional y al aislamiento social a medida que las relaciones humanas comiencen a parecerles más desafiantes o menos satisfactorias en comparación con lo que ofrece la IA.
¿Cómo pueden los padres proteger a sus hijos de un apego nocivo a la IA?
Torney dijo que los adolescentes vulnerables, particularmente aquellos que experimentan depresión, ansiedad o desafíos sociales, podrían ser «más vulnerables a formar vínculos excesivos con compañeros de IA».
Algunas de las señales de advertencia críticas a las que los padres y cuidadores deben estar atentos, dijo, incluyen que alguien prefiera la IA a pasar tiempo con amigos o familiares, que muestre angustia cuando no pueden acceder a la IA, que comparta información personal exclusivamente con ella, que desarrolle sentimientos románticos por la IA y expresarlos como si fuera una persona real, o discutir problemas graves sólo con la IA en lugar de buscar ayuda.
Torney añadió que para prevenir el desarrollo de apegos nocivos a la IA, especialmente entre los jóvenes vulnerables, los cuidadores deben establecer límites de tiempo para el uso del chatbot o acompañante de IA y monitorear periódicamente la naturaleza de estas interacciones.
Además, alentó a buscar ayuda del mundo real para problemas graves en lugar de depender de una IA.
«Los padres deben abordar estas conversaciones con curiosidad en lugar de crítica, ayudando a sus hijos a comprender la diferencia entre la IA y las relaciones humanas mientras trabajan juntos para garantizar límites saludables», dijo Torney.
“Si un joven muestra signos de apego excesivo o si su salud mental parece verse afectada, los padres deben buscar ayuda profesional de inmediato”.
Si está pensando en suicidarse y necesita hablar, comuníquese con Befrienders Worldwide, una organización internacional con líneas de ayuda en 32 países. Visita amigos.org para encontrar el número de teléfono de su ubicación.