Inicio Ciencia La IA de una popular aplicación de libros es considerada «intolerante» y...

La IA de una popular aplicación de libros es considerada «intolerante» y «racista» después de llamar a un usuario «devoto de la diversidad» y decirle a otro que «salga a la superficie para encontrar algún autor blanco ocasional».

0
Fable, una aplicación de redes sociales para entusiastas de los libros, utilizó una IA para crear una experiencia

La IA de una popular aplicación de libros ha sido descartada después de ser considerada «intolerante y racista».

Fable, una aplicación de redes sociales para entusiastas de los libros, utilizó una IA para crear una experiencia «envuelta» similar a Spotify, que resume los hábitos de lectura de los usuarios a lo largo del año.

Sin embargo, los lectores indignados pronto se quejaron de que la función, diseñada para ofrecer un «asado divertido», arremetía con desprecios racistas.

Un usuario se sorprendió cuando la aplicación le dijo que «saliera a la superficie para encontrar algún autor blanco ocasional» después de pasar un año leyendo «narrativas negras y cuentos transformadores».

Otro fue criticado por su resumen de IA como un «devoto de la diversidad», y la aplicación cuestionó si «alguna vez estuvieron de humor para la perspectiva de un hombre blanco cis heterosexual».

Mientras tanto, a un usuario que había estado leyendo libros sobre personas con discapacidades se le dijo que sus elecciones podrían «ganarle la sorpresa a un perezoso».

En una actualización de Instagram, Fable dice que ahora está eliminando todas las funciones que utilizan IA e introduciendo nuevas medidas de seguridad en la aplicación.

Pero eso no ha impedido que los usuarios acudan en masa a las redes sociales con llamados para eliminar la aplicación del libro por completo.

Fable, una aplicación de redes sociales para entusiastas de los libros, utilizó una IA para crear una experiencia «envuelta» similar a la de Spotify, que resume los hábitos de lectura de los usuarios a lo largo del año. Sin embargo, los lectores indignados pronto se quejaron de que la función, diseñada para ofrecer un «asado divertido», arremetía con desprecios racistas.

La popular aplicación de libros Fable (en la foto) se ha visto obligada a eliminar sus funciones de inteligencia artificial después de que se descubriera que los resúmenes generados automáticamente eran «racistas e intolerantes».

Fable ‘Reading Wrap’ se introdujo en 2023 para proporcionar un resumen mensual de los hábitos de lectura de los usuarios.

Para la edición de fin de año de 2024, la aplicación también agregó un resumen generado por IA que, según la compañía, «celebraría la singularidad de todos».

Sin embargo, las cosas dieron un giro oscuro cuando la influencer de libros Tiana Trammell compartió una captura de pantalla de su envoltura que la criticaba por no leer suficientes autores blancos.

En una publicación en Threads, la Sra. Trammell escribió: «Normalmente disfruto de los resúmenes de mis lectores, pero este en particular no me sienta nada bien».

Cuando su publicación se volvió viral, la cuenta oficial de Fable respondió diciendo que se estaba investigando el problema.

Fable escribió: ‘Esto nunca debería haber sucedido. Nuestros resúmenes de lectores tienen como objetivo capturar su historial de lectura y probar de manera divertida su gusto, pero nunca, nunca, deben incluir referencias a raza, sexualidad, religión, nacionalidad u otras clases protegidas.

«Nos tomamos esto muy en serio, nos disculpamos profundamente y apreciamos que nos haga responsables».

Sin embargo, a la Sra. Trammell pronto se le unieron otros usuarios que encontraron insultantes sus reseñas de fin de año.

La IA calificó a otro usuario como un «devoto de la diversidad», mientras que la revisión cuestionó si «alguna vez estuvo de humor para la perspectiva de un hombre blanco cis y heterosexual».

¿Cómo generó la IA de Fable los resúmenes de los usuarios?

En una publicación en Instagram, Chris Gallello, jefe de producto de Fable, explicó cómo funcionaba la IA.

La aplicación utiliza un modelo de IA que toma los resúmenes de los libros que un usuario terminó más recientemente.

Estos datos no incluyen ninguna información personal sobre el usuario.

Luego, ese modelo utiliza la información para generar algunas oraciones.

El modelo se construyó originalmente con salvaguardas que le pedían que evitara algunos temas y filtrara el lenguaje «ofensivo».

Sin embargo, Gallello admitió que ambas salvaguardias habían «fracasado» en impedir que surgiera un lenguaje racista e intolerante.

El escritor Danny Groves recurrió a las redes sociales después de que la IA lo calificara como un «devoto de la diversidad» que no estaba interesado en la «perspectiva de un hombre blanco heterosexual y cis».

En una publicación en Threads, Groves escribió: “Los resúmenes de mis lectores han sido picantes antes, pero nunca como el que se está difundiendo. Fue bastante desorientador cuando lo leí por primera vez.

«Ahora estoy reflexionando sobre los demás y preguntándome si hubo un cambio en el algoritmo que creó el reciente, o si siempre ha ido en esta dirección».

Del mismo modo, otro usuario compartió una captura de pantalla de una reseña que decía que su gusto por los libros había «establecido el listón para mi medidor de vergüenza».

El usuario acudió a Threads para quejarse y escribió: «Hola @fable, SÉ que hay cosas peores por ahí, pero ¿puedes también decirle a tu IA que deje de insultar el trabajo de los autores románticos y que no siga menospreciando el género romántico llamándolo vergonzoso?». ?’

Después de las publicaciones, Chris Gallello, jefe de producto de Fable, abordó este problema en un vídeo.

Aunque no se refirió específicamente a ningún ejemplo, Gallello dijo que Fable había comenzado a recibir quejas sobre «un lenguaje racista muy intolerante».

El Sr. Gallello agregó: «Eso fue impactante para nosotros porque es una de nuestras funciones más queridas, a muchas personas en nuestra comunidad les encanta esta función y saber que esta función ha generado lenguaje es una situación triste».

Otro comentarista se indignó después de que el resumen generado por IA criticó su gusto por haber «establecido el listón para mi medidor de vergüenza».

Gallello explicó que la IA funcionaba tomando los resúmenes de los libros que se habían terminado más recientemente y pidiéndole que generara algunas frases «divertidas» que describieran los hábitos de lectura del usuario.

Inicialmente, Gallello sostuvo que las funciones de IA se mantendrían con la adición de nuevas salvaguardias.

Sin embargo, en una publicación de seguimiento, la compañía confirmó que eliminaría todas las funciones que utilizan IA.

Eso incluye la función de estadísticas de lectores, el resumen de lectura de 2024 y el ‘shelfie’ que generó una estantería personalizada basada en los ocho libros o programas de televisión favoritos de un lector.

Fable también celebró una reunión pública para que los usuarios de la aplicación discutieran qué medidas podrían tomarse para restablecer la confianza en sus servicios.

Si bien muchos aplaudieron la franqueza y transparencia de Fable sobre el tema, algunos enojados ya han recurrido a las redes sociales para pedir que se elimine la aplicación.

Un comentarista indignado escribió: «Acabo de ver lo que hizo Fable y, oh Dios mío, inmediatamente eliminé esa aplicación, ¡qué carajo!».

‘Solo instalé fable hoy, ¿debería eliminarlo?’ preguntó otro.

Si bien algunos comentaristas elogiaron la decisión de Fable de eliminar las funciones de IA, otros dijeron que ya habían eliminado la aplicación.

Un comentarista cuestionó si deberían eliminar la aplicación después de tenerla instalada solo por un día.

Otro comentarista dijo que ya habían eliminado la aplicación Fable como consecuencia de sus resúmenes racistas generados por IA.

Mientras que otro añadió: «Descargué Fable para poder dejar de usar Goodreads y al día siguiente salió el drama de IA y lo eliminé rápidamente».

Asimismo, la Sra. Trammell escribió en una publicación en Threads: ‘Después de la declaración pública de @fable, desactivé mi cuenta y eliminé la aplicación.

«Su compromiso es con el uso de la IA y no con garantizar la seguridad de sus usuarios dentro de la plataforma».

Kimberly Marsh Allee, jefa de la comunidad de Fable, dijo a MailOnline: ‘La semana pasada, descubrimos que dos de los miembros de nuestra comunidad recibieron resúmenes de lectores generados por IA que son completamente inaceptables para nosotros como empresa y no reflejan nuestros valores.

‘Asumimos la responsabilidad total por este error y lamentamos profundamente que esto haya sucedido. Hemos escuchado comentarios de suficientes miembros de nuestra comunidad sobre el uso de IA generativa para ciertas funciones y hemos tomado la decisión de eliminarlas de nuestra plataforma con efecto inmediato».

Esta no es la primera vez que una IA popular es acusada de racismo.

En abril del año pasado, la IA Gemini de Google enfrentó acusaciones de racismo hacia los blancos después de que se negó a crear imágenes de personas caucásicas.

La herramienta utilizó mensajes de texto simples para crear imágenes artificiales en segundos, pero se negó a crear imágenes de personas blancas como Papas, vikingos o fanáticos de la música country.

Fable no es la primera IA que se enfrenta a acusaciones de racismo. El año pasado, la IA Gemini de Google fue criticada por su incapacidad para mostrar imágenes de personas blancas como Papas, vikingos, música country e incluso soldados nazis.

En un ejemplo particularmente atroz, la IA generó una imagen de lo que parecía ser un soldado nazi negro después de que se le pidió que la mostrara a un soldado alemán de la Segunda Guerra Mundial.

Google se vio obligado a cerrar temporalmente la herramienta de generación de imágenes mientras los ingenieros solucionaban los errores «completamente inaceptables».

En una rara declaración pública en ese momento, el cofundador de Google, Sergey Brin, dijo: «Definitivamente nos equivocamos».

De manera similar, el generador de imágenes de IA de Meta fue criticado por sus prejuicios «racistas» después de que los usuarios descubrieran que el robot no podía mostrar a un hombre asiático con una mujer blanca.

No importa cómo se redactaran las indicaciones, el robot se negó a mostrar parejas mestizas protagonizadas por hombres asiáticos.

Se cree que estos errores fueron creados por la falta de parejas mestizas en los datos de entrenamiento o como resultado de un intento fallido de corregir excesivamente las representaciones racistas.

CÓMO APRENDEN LAS INTELIGENCIAS ARTIFICIALES UTILIZANDO REDES NEURALES

Los sistemas de inteligencia artificial se basan en redes neuronales artificiales (RNA), que intentan simular la forma en que funciona el cerebro para aprender.

Las RNA se pueden entrenar para reconocer patrones en la información (incluidos el habla, los datos de texto o las imágenes visuales) y son la base de una gran cantidad de avances en IA en los últimos años.

La IA convencional utiliza información para «enseñar» a un algoritmo sobre un tema en particular alimentándolo con cantidades masivas de información.

Los sistemas de inteligencia artificial se basan en redes neuronales artificiales (RNA), que intentan simular la forma en que funciona el cerebro para aprender. Las RNA se pueden entrenar para reconocer patrones en la información, incluidos el habla, los datos de texto o las imágenes visuales.

Las aplicaciones prácticas incluyen los servicios de traducción de idiomas de Google, el software de reconocimiento facial de Facebook y los filtros en vivo de alteración de imágenes de Snapchat.

El proceso de ingresar estos datos puede llevar mucho tiempo y está limitado a un tipo de conocimiento.

Una nueva generación de ANN llamada Adversarial Neural Networks enfrenta el ingenio de dos robots de IA entre sí, lo que les permite aprender unos de otros.

Este enfoque está diseñado para acelerar el proceso de aprendizaje, así como para perfeccionar el resultado creado por los sistemas de IA.

Fuente

Salir de la versión móvil