Inicio Ciencia La IA debería ser ‘una prioridad mundial junto con las pandemias y...

La IA debería ser ‘una prioridad mundial junto con las pandemias y la guerra nuclear’, afirma una nueva carta

0

Más de 350 expertos de la industria han firmado una nueva carta abierta que pide una regulación para mitigar «el riesgo de extinción de la IA», incluidos varios que desarrollan la tecnología.

La declaración de 22 palabras dice: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».

La breve carta fue firmada por el CEO de OpenAI, Sam Altman, creador de ChatGPT, quien pidió al Congreso que establezca regulaciones para la IA.

Si bien el documento no proporciona detalles, la declaración tiene como objetivo convencer a los legisladores para que creen planes para el caso de que la IA se vuelva rebelde, al igual que hay planes para pandemias y guerras nucleares.

A Altman se unieron otros líderes conocidos en IA, incluidos Demis Hassabis de Google DeepMind, Dario Amodei de Anthropic y ejecutivos de Microsoft y Google.

Entre ellos también estaban Geoffrey Hinton y Yoshua Bengio, dos de los tres llamados «padrinos de la IA» que recibieron el Premio Turing 2018 por su trabajo en aprendizaje profundo, y profesores de instituciones que van desde Harvard hasta la Universidad Tsinghua de China.

La breve carta fue firmada por el CEO de OpenAI, Sam Altman, creador de ChatGPT, quien pidió al Congreso que establezca regulaciones para la IA, admitiendo que la tecnología

La breve carta fue firmada por el CEO de OpenAI, Sam Altman, creador de ChatGPT, quien pidió al Congreso que establezca regulaciones para la IA, admitiendo que la tecnología «podría salir bastante mal».

Más de 350 expertos de la industria han firmado una nueva carta abierta que pide una regulación para mitigar «el riesgo de extinción de la IA».

El Centro sin fines de lucro para la seguridad de la IA (CAIS), con sede en San Francisco, publicó la breve declaración, que destacó a Meta, donde trabaja el tercer padrino de la IA, Yann LeCun, por no firmar la carta.

Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos de la industria fueron los primeros en mencionar los posibles riesgos sociales en abril.

Musk y más de 1,000 expertos de la industria pidieron una pausa en la ‘carrera peligrosa’ para avanzar en la IA, diciendo que se debe realizar más evaluación de riesgos antes de que los humanos pierdan el control y se convierta en una especie inteligente que odia a los humanos.

En este punto, la IA habría alcanzado la singularidad, lo que significa que ha superado la inteligencia humana y tiene un pensamiento independiente.

La IA ya no necesitaría ni escucharía a los humanos, lo que le permitiría robar códigos nucleares, crear pandemias y provocar guerras mundiales.

El fundador de DeepAI, Kevin Baragona, quien firmó la carta, le dijo a DailyMail.com: «Es casi como una guerra entre chimpancés y humanos».

Obviamente, los humanos ganan, ya que somos mucho más inteligentes y podemos aprovechar una tecnología más avanzada para derrotarlos.

‘Si somos como los chimpancés, entonces la IA nos destruirá, o seremos esclavizados por ella’.

A Altman se unieron otros líderes conocidos en IA, incluidos Demis Hassabis de Google DeepMind (en la foto), Dario Amodei de Anthropic y ejecutivos de Microsoft y Google

También entre ellos estaba Geoffrey Hinton, uno de los tres llamados ‘padrinos de la IA’ que recibieron el Premio Turing 2018 por su trabajo en aprendizaje profundo.

Los temores de la IA surgen cuando los expertos predicen que alcanzará la singularidad para 2045, que es cuando la tecnología supera la inteligencia humana a la que no podemos controlar.

Las preocupaciones sobre la inteligencia artificial parecían haber surgido con el lanzamiento de ChatGPT en noviembre.

El chatbot es un modelo de lenguaje grande entrenado en datos de texto masivos, lo que le permite generar texto inquietantemente similar a un humano en respuesta a un aviso dado.

El público usa ChatGPT para escribir trabajos de investigación, libros, artículos de noticias, correos electrónicos y otros trabajos basados ​​en texto y, aunque muchos lo ven más como un asistente virtual, muchas mentes brillantes lo ven como el fin de la humanidad.

En su forma más simple, la IA es un campo que combina la informática y conjuntos de datos sólidos para permitir la resolución de problemas.

La tecnología permite que las máquinas aprendan de la experiencia, se ajusten a nuevos insumos y realicen tareas similares a las humanas.

Los desarrollos recientes en IA han creado herramientas que, según los partidarios, se pueden usar en aplicaciones que van desde el diagnóstico médico hasta la redacción de informes legales, pero esto ha despertado temores de que la tecnología pueda conducir a violaciones de la privacidad, potenciar campañas de desinformación y problemas con las ‘máquinas inteligentes’ que piensan por sí mismas.

Los legisladores interrogaron a Altman este mes durante cinco horas sobre cómo ChatGPT y otros modelos podrían remodelar la ‘historia humana’ para bien o para mal, comparándola con la imprenta o la bomba atómica.

Altman, que parecía sonrojado y con los ojos muy abiertos durante el intercambio sobre el futuro que la IA podría crear, admitió que sus «peores temores» son que se podría causar un «daño significativo» al mundo usando su tecnología.

‘Si esta tecnología sale mal, podría salir bastante mal, y queremos hablar al respecto. Queremos trabajar con el gobierno para evitar que eso suceda”, continuó.

Fuente

Salir de la versión móvil