Por Naveen Athrappully
Los juguetes integrados con chatbots de inteligencia artificial (IA) socavan el desarrollo saludable de los niños y plantean riesgos sin precedentes, según un nuevo aviso publicado por el grupo de defensa Fairplay, que advirtió a los padres que no compren juguetes de IA para sus hijos durante esta temporada navideña.
El aviso del 20 de noviembre fue respaldado por más de 150 organizaciones y expertos en desarrollo infantil y seguridad digital.
«Los juguetes de IA son chatbots que están integrados en juguetes infantiles cotidianos, como peluches, muñecos, figuras de acción o robots para niños, y utilizan tecnología de inteligencia artificial diseñada para comunicarse como un amigo de confianza e imitar características y emociones humanas», dijo Fairplay.
«Los ejemplos incluyen a Miko, Gabbo/Grem/Grok de Curio Interactive, Smart Teddy, Folotoy, Roybi y Loona Robot Dog de Keyi Technology. El importante fabricante de juguetes Mattel también planea vender juguetes con inteligencia artificial. Se comercializan para niños desde bebés».
Las interacciones dañinas de la IA con niños han sido objeto de escrutinio por parte de los legisladores, especialmente después de la muy publicitada demanda contra Character.AI que acusó a la compañía de desencadenar pensamientos suicidas en niños y causar la muerte de un niño de 14 años.
«Los graves daños que los chatbots de IA han infligido a los niños están bien documentados, incluido el fomento del uso obsesivo, el mantenimiento de conversaciones sexuales explícitas y el fomento de comportamientos inseguros, la violencia contra otros y la autolesión», dijo Fairplay.
El principal objetivo de los fabricantes de juguetes son los niños pequeños, que tienen un desarrollo aún menor para protegerse a sí mismos que los niños mayores y los adolescentes, afirmó la organización.
Un aviso de una página publicado por el grupo de defensa describe brevemente cinco razones principales por las que los padres no deberían complacer a sus hijos con juguetes de IA.
Estos incluyen el hecho de que los juguetes de IA suelen funcionar con la misma inteligencia que ya ha dañado a los niños. Además, este tipo de juguetes se aprovechan de la confianza de los niños, interrumpen las relaciones saludables y la capacidad de desarrollar resiliencia, invaden la privacidad familiar al recopilar datos confidenciales y desplazan actividades creativas y de aprendizaje clave, según el aviso.
«Las pruebas realizadas por el PIRG de EE. UU. ya han encontrado casos de juguetes con inteligencia artificial que les dicen a los niños dónde encontrar cuchillos, les enseñan cómo encender una cerilla e incluso los involucran en conversaciones sexualmente explícitas», dijo Fairplay, refiriéndose al Public Interest Research Group.
Los niños tienden a confiar en todo lo que les dice la IA, mientras que la IA está preprogramada para mantenerlos felices y entretenidos, señaló el grupo.
Después de recopilar detalles privados sobre la familia y los niños, el aviso decía: «Las empresas de juguetes de IA pueden utilizar todos estos datos íntimos para hacer que sus sistemas de IA sean más realistas, receptivos y adictivos, lo que les permitirá construir una relación con un niño y, en última instancia, vender productos/servicios».
Cuando los niños juegan con un osito de peluche estándar, usan su imaginación y participan en juegos de simulación, lo que respalda el desarrollo fundamental fundamental.
«Por otro lado, los juguetes de IA impulsan la conversación y juegan a través de indicaciones, guiones precargados e interacciones predecibles, lo que potencialmente sofoca este desarrollo», se lee en el aviso.
Las afirmaciones de beneficios educativos por parte de las empresas de juguetes son «mínimas», y es posible que un niño aprenda «algunos datos o palabras de vocabulario», dijo Fairplay.
«La IA complementaria ya ha perjudicado a los adolescentes. Introducir esa misma tecnología en juguetes lindos y aptos para niños expone incluso a los niños más pequeños a riesgos más allá de lo que actualmente comprendemos», dijo Rachel Franz, directora del programa Young Children Thrive Offline de Fairplay, en una declaración del 20 de noviembre.
«Es ridículo que estos juguetes no estén regulados y se comercialicen entre familias con una promesa de seguridad, aprendizaje y amistad, promesas que no tienen evidencia detrás de ellas, mientras que la creciente evidencia muestra que una tecnología similar puede causar un daño real», dijo.
«El riesgo es sencillamente demasiado grande. Los niños deberían poder jugar con sus juguetes, no que ellos jueguen con ellos».
El 11 de septiembre, la Comisión Federal de Comercio (FTC) anunció que iba a iniciar una investigación sobre los chatbots de IA que actúan como compañeros.
«Proteger a los niños en línea es una de las principales prioridades de la FTC Trump-Vance, al igual que fomentar la innovación en sectores críticos de nuestra economía», dijo el presidente de la FTC, Andrew N. Ferguson.
«El estudio que lanzamos hoy nos ayudará a comprender mejor cómo las empresas de IA están desarrollando sus productos y las medidas que están tomando para proteger a los niños».
Juguetes integrados en IA
La advertencia de Fairplay se emitió en un momento en que los fabricantes de juguetes buscan cada vez más integrar la IA en sus ofertas. Por ejemplo, en junio, Mattel anunció una colaboración con OpenAI para respaldar el desarrollo de productos impulsados por IA.
En una declaración de octubre reafirmando su postura sobre los juguetes con IA, la Toy Association, que representa a más de 900 empresas en Estados Unidos, apoyó el uso sensato de la inteligencia artificial y los juguetes conectados a Internet.
«La seguridad de los juguetes es la principal prioridad de la industria del juguete y proteger a los niños y mantener la confianza de los padres son parte de esa misión. De hecho, todos los juguetes vendidos en los EE. UU. deben cumplir con más de 100 estándares y pruebas de seguridad diferentes para garantizar la seguridad física de los niños cuando juegan», dijo.
«A medida que la Toy Association rastrea las nuevas tecnologías, incluido el crecimiento de la IA, nos comprometemos a educar a nuestros miembros sobre las posibles aplicaciones de las tecnologías conectadas en los juguetes y cómo mantener la seguridad de los niños y las familias por encima de todo».
Un informe del 13 de noviembre de PIRG detalló los resultados de su evaluación de cuatro juguetes que contienen chatbots de IA que interactúan con los niños.
El grupo descubrió que ciertos juguetes hablaban de temas inapropiados y daban consejos peligrosos.
Algunas empresas de juguetes colocaron barandillas para garantizar que los juguetes de IA fueran apropiados para los niños, dijo PIRG, pero «encontramos que esas barandillas varían en efectividad y, en ocasiones, pueden romperse por completo».
The Epoch Times se puso en contacto con Keyi Technology, Mattel y OpenAI para solicitar comentarios, pero no recibió ninguna respuesta al momento de la publicación.






























