Cuando se le pregunta sobre el riesgo que representa la inteligencia artificial para los humanos, el pionero de la IA y ganador del Premio Nobel Geoffrey Hinton responde con una referencia a un director legendario de Hollywood y un chiste sombrío.
“James Cameron dijo recientemente terminador Era demasiado optimista”, dijo. «Porque los humanos tenían una oportunidad contra la superinteligencia».
Su discurso es inexpresivo.
Hinton, a menudo referido como el «padrino de la IA» por su trabajo pionero en sistemas neuronales, no se anda con rodeos cuando se trata del cambio sísmico que la inteligencia artificial ya ha comenzado a provocar, así como del riesgo para la humanidad, dice. plantea.
Y lo hace todo con su característico humor seco británico-canadiense.
Hinton y su colega experto en IA Jacob Steinhardt, quien voló desde Silicon Valley para una serie de conferencias de dos partes en Toronto titulada La IA en aumento: riesgo frente a recompensase reunirán con aproximadamente una docena de personas en el centro para una cena íntima el lunes después de compartir escenario.
Hinton rara vez concede entrevistas, por lo que esta es una oportunidad única para conocer el cerebro del premio Nobel de 76 años.
Cuando se le preguntó sobre la inminente perturbación de la fuerza laboral que la IA ha iniciado, Hinton dice que es difícil medir el cambio sísmico que se avecina en este momento, pero lo compara con la escala de perturbación observada durante la Revolución Industrial.
“Potencialmente, es muy grande. Se hace que la inteligencia humana promedio ya no valga mucho porque la IA puede hacerlo”, le dice a Global News.
“Los periodistas están en problemas”, dice con su característica expresión inexpresiva.
Aunque parecen muy alineados en términos de sus mensajes en el escenario, Hinton dice que él y el experto en aprendizaje automático Steinhardt «acuerdan no estar de acuerdo» sobre una cacofonía de platos italianos en un restaurante en el barrio Queen Street West de Toronto.
Steinhardt, cuya experiencia laboral incluye una temporada como investigador científico en OpenAI en 2019, se describe a sí mismo como un «optimista preocupado». Su postura contrasta marcadamente con las proclamas de Hinton, que tal vez sean irónicas, aunque no optimistas.
Recibe noticias nacionales diarias
Reciba los principales titulares de noticias, políticos, económicos y de actualidad del día en su bandeja de entrada una vez al día.
Las advertencias de Hinton sobre el ascenso de la IA siempre vuelven a la amenaza existencial que, según él, representa. El lado positivo de sus palabras es el hecho de que hay muchas incógnitas en lo que respecta a la trayectoria de la IA.
“Es muy difícil modelar lo que sucederá con la IA observando lo que sucedió con otras cosas. Es muy diferente”, dice Hinton. «Internet no estaba produciendo seres más inteligentes que nosotros».
Cuando se le preguntó sobre la amenaza de la IA, Steinhardt compara la inteligencia artificial con «un gran grupo de personas muy inteligentes». No son más inteligentes que los humanos en conjunto, por ahora, pero ya son más inteligentes que algunos humanos, en cosas específicas como tipos de programación o incluso jugar al ajedrez.
Además del hecho de que nadie puede predecir los resultados generados por este grupo, «se comportan de manera muy extraña y tienen capacidades extrañas», dice Steinhardt.
Señala que “pueden copiarse libremente en computadoras nuevas” y multiplicarse, de manera muy “como un virus”.
Steinhardt dice que está muy preocupado por los tipos de ciberataques que la IA podría desencadenar pronto, desde jurisdicciones cuyos objetivos pueden no estar alineados con los de las democracias occidentales.
«No creo que estemos muy lejos de la posibilidad de que Rusia destruya la red eléctrica en Los Ángeles o algo así», dice.
Según Steinhardt, objetivos como infraestructuras críticas e incluso servicios de emergencia podrían estar en la mira de aquí a 2030.
«Como llamadas falsas al 911 mediante clonación de voz, eso es muy convincente», dice. “La gente ya está haciendo esto a pequeña escala. Me preocupa que un montón de llamadas al 911 puedan alterar todo el sistema de respuesta a emergencias”.
Y él es, con diferencia, el más optimista de los dos.
Hinton y Steinhardt también tienen puntos de vista diferentes sobre la seguridad de la IA.
La opinión de Hinton es que la IA es segura, hasta que deja de serlo. Y que ese punto de inflexión llegue en años, décadas o vidas no cambia lo que él considera una situación riesgosa.
“La pregunta es: ¿podemos asegurarnos de que nunca quiera tomar el control? Porque si quiere tomar el control y es más inteligente que nosotros, estamos jodidos”, dice Hinton.
La visión de Steinhardt sobre el futuro se ve reforzada por el lanzamiento de translúcidoel laboratorio de investigación de IA sin fines de lucro que inauguró en octubre en la Universidad de California en Berkeley. Su objetivo declarado es «construir tecnología abierta y escalable para comprender los sistemas de inteligencia artificial y orientarlos en beneficio del interés público».
En esencia, utilizar la IA para mejorar, monitorear y señalar problemas con la IA. Cuando se le preguntó sobre la prudencia de utilizar la inteligencia artificial para autocontrolarse, admite que puede haber problemas con ese enfoque. Pero está convencido de que es la mejor solución disponible.
“No me preocupa que los sistemas de inteligencia artificial que tenemos hoy se hagan cargo. Me preocupa nuestra capacidad de saber qué es verdad. Me preocupan los malos actores”, dice. «Debería ser más una colaboración en la que la IA empodere a los humanos».
Sigue siendo un firme defensor de que una muestra representativa de personas de diversos orígenes se unan de manera transparente para utilizar la IA como una herramienta nueva, poderosa y emergente.
«Dadas las extraordinarias consecuencias que la IA tiene en la sociedad, lo que hagamos con la IA debe ser una conversación pública», afirma Steinhardt.
Cuando se le pregunta sobre el futuro de la IA, Hinton se lo recuerda a James Cameron.
“Básicamente dijo que es peor de lo que pensaba en Terminator”, dice Hinton, quien luego menciona las advertencias desatendidas de Cameron sobre la posibilidad de que el sumergible OceanGate Titan falle catastróficamente, lo que ocurrió en junio de 2023.
“También dijo que el submarino de fibra de carbono no era bueno. Y en eso tenía razón”.
Una declaración escalofriante, pronunciada inexpresivamente por el padrino de la IA.