El creador de ChatGPT dice que las operaciones de influencia no lograron ganar terreno ni llegar a grandes audiencias.
La empresa de inteligencia artificial OpenAI ha anunciado que ha interrumpido campañas de influencia encubiertas procedentes de Rusia, China, Israel e Irán.
El creador de ChatGPT dijo el jueves que identificó cinco campañas que involucran «intentos engañosos de manipular la opinión pública o influir en los resultados políticos sin revelar la verdadera identidad o intenciones de los actores detrás de ellas».
Las campañas utilizaron modelos de OpenAI para generar texto e imágenes que se publicaron en plataformas de redes sociales como Telegram, X e Instagram, y en algunos casos explotaron las herramientas para producir contenido con «menos errores de lenguaje de los que hubieran sido posibles para operadores humanos». Dijo Open AI.
Open AI dijo que canceló cuentas asociadas con dos operaciones rusas, denominadas Bad Grammer y Doppelganger; una campaña china conocida como Spamouflage; una red iraní llamada Unión Internacional de Medios Virtuales; y una operación israelí denominada Zero Zeno.
«Estamos comprometidos con el desarrollo de una IA segura y responsable, lo que implica diseñar nuestros modelos teniendo en cuenta la seguridad e intervenir de forma proactiva contra el uso malicioso», dijo la startup con sede en California en un comunicado publicado en su sitio web.
“Detectar e interrumpir abusos en múltiples plataformas, como operaciones de influencia encubiertas, puede ser un desafío porque no siempre sabemos cómo se distribuye el contenido generado por nuestros productos. Pero estamos dedicados a encontrar y mitigar este abuso a escala aprovechando el poder de la IA generativa”.
Bad Grammar y Doppelganger generaron en gran medida contenido sobre la guerra en Ucrania, incluidas narrativas que retratan a Ucrania, Estados Unidos, la OTAN y la Unión Europea de manera negativa, según OpenAI.
Spamouflage generó texto en chino, inglés, japonés y coreano que criticaba a destacados críticos de Beijing, incluido el actor y activista del Tíbet Richard Gere y el disidente Cai Xia, y destacaba los abusos contra los nativos americanos, según la startup.
La Unión Internacional de Medios Virtuales generó y tradujo artículos que criticaban a Estados Unidos e Israel, mientras que Zero Zeno apuntó a la agencia de las Naciones Unidas para los refugiados palestinos y los “islamistas radicales” en Canadá, dijo OpenAI.
A pesar de los esfuerzos por influir en el discurso público, las operaciones «no parecen haberse beneficiado de una mayor participación o alcance de la audiencia como resultado de nuestros servicios», dijo la firma.
La posibilidad de que la IA se utilice para difundir desinformación se ha convertido en un importante tema de conversación mientras los votantes de más de 50 países emitían sus votos en lo que se ha denominado el año electoral más importante de la historia.
La semana pasada, las autoridades del estado estadounidense de New Hampshire anunciaron que habían acusado a un consultor político del Partido Demócrata de más de dos docenas de cargos por supuestamente orquestar llamadas automáticas que utilizaban una suplantación del presidente estadounidense Joe Biden creada por IA para instar a los votantes a no votar en el primarias presidenciales del estado.
Durante el período previo a las elecciones parlamentarias de Pakistán en febrero, el ex primer ministro encarcelado Imran Khan utilizó discursos generados por inteligencia artificial para reunir a sus partidarios en medio de una prohibición gubernamental de realizar manifestaciones públicas.