Un nuevo informe que, según sus autores, fue encargado por el Departamento de Estado de Estados Unidos, pinta un panorama alarmante de la "catastrófico" riesgos para la seguridad nacional que plantea la inteligencia artificial en rápida evolución y advierte que se está acabando el tiempo para que el gobierno federal evite el desastre.
Los hallazgos se basaron en entrevistas con más de 200 personas durante más de un año, incluidos altos ejecutivos de importantes empresas de inteligencia artificial, investigadores de ciberseguridad, expertos en armas de destrucción masiva y funcionarios de seguridad nacional dentro del gobierno.
El informepublicado esta semana por Gladstone AI, afirma rotundamente que los sistemas de IA más avanzados podrían, en el peor de los casos, "representan una amenaza de nivel de extinción para la especie humana".
LEER MÁS: Un tribunal rumano acepta la petición del Reino Unido de extraditar a Andrew Tate
El Departamento de Estado de Estados Unidos no respondió a una solicitud de comentarios.
La advertencia del informe es otro recordatorio de que, aunque el potencial de la IA sigue aumentando cautivar inversores y el públicohay peligros reales también.
"La IA ya es una tecnología económicamente transformadora. Podría permitirnos curar enfermedades, hacer descubrimientos científicos y superar desafíos que alguna vez pensamos que eran insuperables." dijo a CNN Jeremie Harris, director ejecutivo y cofundador de Gladstone AI.
LEER MÁS: Aterrador intento de arresto captado por la cámara corporal de la policía
"Pero también podría entrañar riesgos graves, incluidos riesgos catastróficos, de los que debemos ser conscientes," Dijo Harris. "Y un creciente conjunto de pruebas (incluidas investigaciones y análisis empíricos publicados en las principales conferencias sobre IA del mundo) sugiere que, por encima de cierto umbral de capacidad, las IA podrían volverse potencialmente incontrolables."
El portavoz de la Casa Blanca, Robyn Patterson, dijo que la orden ejecutiva del presidente Joe Biden sobre IA es la "La medida más importante que ha tomado cualquier gobierno del mundo para hacer realidad la promesa y gestionar los riesgos de la inteligencia artificial."
"El Presidente y el Vicepresidente continuarán trabajando con nuestros socios internacionales e instarán al Congreso a aprobar legislación bipartidista para gestionar los riesgos asociados con estas tecnologías emergentes." Dijo Patterson.
LEER MÁS: Papá acepta un aumento de alquiler de $250 por semana y aún así lo desalojan
«Necesidad clara y urgente» de intervenir
Los investigadores advierten sobre dos peligros centrales que plantea en términos generales la IA.
En primer lugar, dijo Gladstone AI, los sistemas de inteligencia artificial más avanzados podrían usarse como armas para infligir daños potencialmente irreversibles. En segundo lugar, el informe decía que había preocupaciones privadas dentro de los laboratorios de IA de que en algún momento podrían "perder el control" de los mismos sistemas que estaban desarrollando, con "consecuencias potencialmente devastadoras para la seguridad global".
"El auge de la IA y la AGI [artificial general intelligence] tiene el potencial de desestabilizar la seguridad global en formas que recuerdan a la introducción de armas nucleares," dice el informe, añadiendo que existe el riesgo de que una IA "carrera de armamentos," conflicto y "Accidentes mortales a escala de armas de destrucción masiva."
El informe de Gladstone AI pide nuevas medidas drásticas destinadas a hacer frente a esta amenaza, incluido el lanzamiento de una nueva agencia de IA, imponiendo "emergencia" salvaguardias regulatorias y límites sobre la cantidad de potencia informática que se puede utilizar para entrenar modelos de IA.
"Existe una necesidad clara y urgente de que intervenga el gobierno de Estados Unidos," los autores escribieron el informe.
El informe señala que, aunque el trabajo fue elaborado para el Departamento de Estado, sus opiniones "no reflejan las opiniones" de la agencia ni del gobierno de Estados Unidos en general.
Un aviso del gobierno emitido en 2022 por la Oficina del Fondo de No Proliferación y Desarme del Departamento de Estado muestra que el gobierno estaba ofreciendo pagar hasta 250.000 dólares por una evaluación del "riesgos de proliferación y seguridad" vinculado a la IA avanzada.
LEER MÁS: Un motociclista ‘debilitado y dañado’ podría salir de la cárcel este año
Preocupaciones de seguridad
Harris, el ejecutivo de IA de Gladstone, dijo que "nivel de acceso sin precedentes" Su equipo tuvo que reunir a funcionarios del sector público y privado y llegó a conclusiones sorprendentes. Gladstone AI dijo que habló con los equipos técnicos y de liderazgo del propietario de ChatGPT, OpenAI, Google DeepMind, la empresa matriz de Facebook, Meta, y Anthropic.
"En el camino, aprendimos algunas cosas aleccionadoras," Harris dijo en un video publicado en el sitio web de Gladstone AI anunciando el informe. "Detrás de escena, la situación de seguridad en la IA avanzada parece bastante inadecuada en relación con los riesgos de seguridad nacional que la IA puede introducir bastante pronto."
El informe de Gladstone AI dice que las presiones competitivas están empujando a las empresas a acelerar el desarrollo de la IA. "a expensas de la seguridad y la protección," planteando la posibilidad de que los sistemas de IA más avanzados puedan ser "robado" y "armado" contra los Estados Unidos.
Las conclusiones se suman a una lista cada vez mayor de advertencias sobre los riesgos existenciales que plantea la IA, incluso de algunas de las figuras más poderosas de la industria.
Hace casi un año, Geoffrey Hinton, conocido como el "Padrino de la IA," renunció a su trabajo en Google y denunció la tecnología que ayudó a desarrollar. Hinton ha dicho que hay un 10% de posibilidades de que la IA conduzca a la extinción humana en las próximas tres décadas.
Hinton y docenas de otros líderes de la industria de la IA, académicos y otros firmó una declaración el pasado mes de junio eso dijo "Mitigar el riesgo de extinción debido a la IA debería ser una prioridad global."
Los líderes empresariales están cada vez más preocupados por estos peligros, incluso cuando invierten miles de millones de dólares en IA. El año pasado, el 42 por ciento de los directores ejecutivos encuestados en la Cumbre de Directores Ejecutivos de Yale el año pasado dijeron que la IA tiene el potencial de destruir a la humanidad dentro de cinco a diez años.
Habilidades humanas para aprender.
En su informe, Gladstone AI destacó algunas de las personas prominentes que han advertido sobre los riesgos existenciales que plantea la IA, incluidos Elon Musk, la presidenta de la Comisión Federal de Comercio, Lina Khan, y un ex alto ejecutivo de OpenAI.
Algunos empleados de empresas de IA comparten preocupaciones similares en privado, según Gladstone AI.
"Un individuo de un conocido laboratorio de IA expresó la opinión de que, si un modelo específico de IA de próxima generación alguna vez fuera lanzado como acceso abierto, esto sería «terriblemente malo»." el informe decía, "porque las capacidades persuasivas potenciales del modelo podrían «quebrar la democracia» si alguna vez se aprovecharan en áreas como la interferencia electoral o la manipulación de votantes."
Gladstone dijo que pidió a los expertos en inteligencia artificial de los laboratorios fronterizos que compartieran en privado sus estimaciones personales sobre la posibilidad de que un incidente de inteligencia artificial pudiera conducir a "efectos globales e irreversibles" en 2024. Las estimaciones oscilaron entre el 4 por ciento y hasta el 20 por ciento, según el informe, que señala que las estimaciones eran informales y probablemente estaban sujetas a un sesgo significativo.
Uno de los mayores comodines es la rapidez con la que evoluciona la IA, específicamente la AGI, que es una forma hipotética de IA con una capacidad de aprendizaje similar a la humana o incluso a la sobrehumana.
El informe dice que AGI es visto como el "principal factor de riesgo catastrófico por pérdida de control" y señala que OpenAI, Google DeepMind, Anthropic y Nvidia han declarado públicamente que el AGI podría alcanzarse en 2028, aunque otros piensan que está mucho, mucho más lejos.
Gladstone AI señala que los desacuerdos sobre los cronogramas de AGI dificultan el desarrollo de políticas y salvaguardias y existe el riesgo de que, si la tecnología se desarrolla más lentamente de lo esperado, la regulación podría "resulta perjudicial."