Por Tom Ozimek
Geoffrey Hinton, el pionero científico informático llamado el «Padrino de la IA», ha vuelto a sonar una vez más la alarma de que la tecnología que ayudó a dar vida podría significar el fin de la humanidad tal como la conocemos.
En un clip de entrevista lanzado el 18 de agosto como parte de la próxima película «Making God», Hinton entregó una de sus advertencias más marcadas hasta el momento. Dijo que la humanidad corre el riesgo de ser marginada, y finalmente reemplazada, por máquinas mucho más inteligentes que nosotros.
«La mayoría de las personas no pueden comprender la idea de las cosas más inteligentes que nosotros», dijo Hinton, un ganador del Premio Nobel de Física y ex ejecutivo de Google, en el clip.
«Siempre piensan, bueno, ¿cómo vamos a usar esta cosa? No piensan, bueno, ¿cómo nos va a usar?»
Hinton dijo que es una inteligencia artificial «bastante segura» que impulsará el desempleo masivo, señalando ejemplos tempranos de gigantes tecnológicos como Microsoft que reemplaza a los programadores junior con IA. Pero el mayor peligro, dijo, va mucho más allá del lugar de trabajo.
«El riesgo que he estado advirtiendo más … es el riesgo de que desarrollaremos una IA que sea mucho más inteligente que nosotros, y solo se hará cargo», dijo Hinton.
«Ya no nos necesitará».
El único forro plateado, bromeó, es que «no nos comerá, porque estará hecho de silicio».
De los avances a los arrepentimientos
Hinton, de 77 años, ha pasado décadas pionero en el aprendizaje profundo, la arquitectura de la red neuronal que sustenta los sistemas de inteligencia artificial de hoy. Sus avances en la década de 1980, particularmente la invención de la máquina Boltzmann, que podría aprender a reconocer los patrones en los datos, abrió la puerta al reconocimiento de imágenes y el aprendizaje automático moderno.
Ese trabajo le valió el Premio Nobel de Física 2024, premiado «para descubrimientos fundamentales e inventos que permiten el aprendizaje automático con redes neuronales artificiales».
La Real Academia de Ciencias suecas señaló cómo el uso temprano de la física estadística de Hinton proporcionó el salto conceptual que hizo posible la revolución de la IA de hoy.
Pero desde entonces, Hinton se ha convertido en uno de los críticos más feroces del campo, advirtiendo que su rápido desarrollo ha superado la capacidad de la sociedad para mantenerlo a salvo. En 2023, renunció a su papel en Google para poder hablar libremente sobre los riesgos sin implicar a la empresa.
En su conferencia Nobel, Hinton reconoció los beneficios potenciales de la IA, como ganancias de productividad y nuevos tratamientos médicos que podrían ser un «avance maravilloso para toda la humanidad». Sin embargo, también advirtió que crear seres digitales más inteligentes que los humanos plantea una «amenaza existencial».
«Desearía haber pensado en los problemas de seguridad también», dijo durante la reciente conferencia AI4 en Las Vegas, reflexionando sobre su carrera. Agregó que ahora lamenta centrarse únicamente en hacer que la IA funcione, en lugar de anticipar sus riesgos.
Enseñando a la IA para cuidar
Hinton ha estimado previamente que hay una probabilidad del 10 al 20 por ciento de que la IA pueda eliminar a la humanidad. En un episodio de junio de The Diary of a CEO Podcast, dijo que los ingenieros detrás de los sistemas de inteligencia artificial de hoy no entienden completamente la tecnología y caen en general en dos campamentos: uno que cree en un futuro distópico donde los humanos son desplazados y el otro, descartando los temores como la ciencia ficción.
«Creo que ambas posiciones son extremas», dijo Hinton.
«A menudo digo un 10 por ciento de posibilidades de AI para que nos elimine. Pero eso es instinto, según la idea de que todavía los estamos haciendo y estamos bastante ingeniosos. Y la esperanza es que si suficientes personas inteligentes investigan suficientes recursos, descubriremos una manera de construirlos para que nunca quisieran dañarnos».
En la conferencia de Las Vegas la semana pasada, Hinton ofreció una idea novedosa sobre cómo mitigar el peligro: en lugar de tratar de obligar a los sistemas de IA a sumarse, los investigadores deben diseñarlos con «instintos maternos» para que quieran proteger a los humanos incluso a medida que se vuelven más inteligentes.
«El modelo correcto es el único modelo que tenemos de una cosa más inteligente controlada por una cosa menos inteligente, que es una madre controlada por su bebé», dijo Hinton en la conferencia.
«Van a ser mucho más inteligentes que nosotros», advirtió Hinton, y agregó que «el único buen resultado» es que si les importa la humanidad la forma en que una madre considera a su hijo.
«Si no me va a criar, me reemplazará».






























