Inicio Ciencia La Casa Blanca presenta su plan de control de daños de IA,...

La Casa Blanca presenta su plan de control de daños de IA, y KAMALA HARRIS será el zar del programa

0

La Casa Blanca ha revelado su plan para tomar medidas enérgicas contra la carrera de la IA en medio de la creciente preocupación de que podría cambiar la vida tal como la conocemos.

La Administración Biden dijo que la tecnología era «una de las más poderosas» de nuestro tiempo y agregó: «Pero para aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos».

El plan es lanzar 25 institutos de investigación en los EE. UU. que buscarán garantías de cuatro empresas, incluidas Google, Microsoft y el creador de ChatGPT, OpenAI, de que «participarán en una evaluación pública».

Muchas de las mejores mentes del mundo han advertido sobre los peligros de la IA, específicamente que podría destruir a la humanidad si no se realiza una evaluación del riesgo ahora.

Los gigantes tecnológicos como Elon Musk temen que la IA pronto supere a la inteligencia humana y tenga un pensamiento independiente. Esto significa que ya no necesitaría ni escucharía a los humanos, lo que le permitiría robar códigos nucleares, crear pandemias y provocar guerras mundiales.

La vicepresidenta Kamala Harris, que tiene el índice de aprobación más bajo de todos los vicepresidentes, liderará el esfuerzo de contención como ‘zar de la IA’ con un presupuesto de solo 140 millones de dólares. A modo de comparación, Space Force tiene un presupuesto de $ 30 mil millones.

La vicepresidenta Kamala Harris lidera el esfuerzo como 'zar de la IA' mientras la Casa Blanca comparte planes para reducir los riesgos asociados con la tecnología.

La vicepresidenta Kamala Harris lidera el esfuerzo como ‘zar de la IA’ mientras la Casa Blanca comparte planes para reducir los riesgos asociados con la tecnología.

Harris se reunirá el jueves con ejecutivos de Google, Microsoft y OpenAI para discutir cómo se pueden reducir tales riesgos potenciales.

La reunión del jueves también discutirá cómo las empresas pueden trabajar con el gobierno y establecer una evaluación pública de los sistemas de IA.

La IA de cada empresa se probará en una convención de hackers este verano para ver si la tecnología se alinea con la ‘Declaración de derechos de IA’ de la administración.

El lanzamiento del chatbot ChatGPT en noviembre generó un mayor debate sobre la IA y el papel del gobierno en el monitoreo de la tecnología.

Debido a que la IA puede generar escritura similar a la humana e imágenes falsas, existen preocupaciones éticas y sociales.

Estos incluyen la distribución de contenido dañino, violaciones de privacidad de datos, amplificación de prejuicios existentes y, el favorito de Elon Musk, la destrucción de la humanidad.

“El presidente Biden ha dejado claro que cuando se trata de IA, debemos colocar a las personas y las comunidades en el centro apoyando la innovación responsable que sirva al bien público, al tiempo que protege nuestra sociedad, seguridad y economía”, se lee en el anuncio de la Casa Blanca.

«Es importante destacar que esto significa que las empresas tienen la responsabilidad fundamental de asegurarse de que sus productos sean seguros antes de que se implementen o se hagan públicos».

La evaluación pública será realizada por miles de socios comunitarios y expertos en IA, según la Casa Blanca.

Hay una gran división de IA en Silicon Valley. Las mentes brillantes están divididas sobre el progreso de los sistemas: algunos dicen que mejorará a la humanidad y otros temen que la tecnología la destruya.

El plan de la Casa Blanca

La vicepresidenta Kamala Harris ahora es la zar de la IA y supervisará un esfuerzo para garantizar que la tecnología se desarrolle de manera responsable.

Harris trabajará con Microsoft, OpenAI y Google sobre cómo pueden mitigar los riesgos y trabajar con el gobierno.

Las empresas ‘participarán en una evaluación pública’.

La evaluación pública será realizada por miles de socios comunitarios y expertos en IA, según la Casa Blanca.

Las pruebas realizadas por profesionales de la industria verán cómo los modelos se alinean con los principios y prácticas descritos en la Declaración de derechos de IA y el Marco de gestión de riesgos de IA.

La Casa Blanca está invirtiendo 140 millones de dólares para abrir siete institutos de investigación de IA más, lo que eleva el total a 25.

Las pruebas realizadas por profesionales de la industria verán cómo los modelos se alinean con los principios y prácticas descritos en la Declaración de derechos de IA y el Marco de gestión de riesgos de IA.

La Declaración de Derechos de IA de Biden, anunciada en octubre de 2022, proporciona un marco sobre cómo el gobierno, las empresas de tecnología y los ciudadanos pueden trabajar juntos para garantizar una IA más responsable.

El proyecto de ley incluye cinco principios: sistemas seguros y efectivos, protecciones de discriminación algorítmica, privacidad de datos, notificación y explicación y alternativas humanas, consideraciones y respaldo.

“Este marco se aplica a (1) sistemas automatizados que (2) tienen el potencial de impactar significativamente los derechos, oportunidades o acceso del público estadounidense a recursos o servicios críticos”, compartió la Casa Blanca en octubre.

El plan de acción de la Casa Blanca sigue una carta abierta firmada por Musk y otros 1000 líderes tecnológicos, incluido el cofundador de Apple, Steve Wozniak, en marzo.

Los magnates de la tecnología pidieron una pausa en la ‘carrera peligrosa’ para avanzar en la IA, diciendo que es necesario realizar más evaluaciones de riesgos antes de que los humanos pierdan el control y se convierta en una especie consciente que odia a los humanos.

En este punto, la IA habría alcanzado la singularidad, lo que significa que ha superado la inteligencia humana y tiene un pensamiento independiente.

La IA ya no necesitaría ni escucharía a los humanos, lo que le permitiría robar códigos nucleares, crear pandemias y provocar guerras mundiales.

Pidieron a todos los laboratorios de IA que dejen de desarrollar sus productos durante al menos seis meses mientras se realizan más evaluaciones de riesgos.

Los temores de la IA surgen cuando los expertos predicen que alcanzará la singularidad para 2045, que es cuando la tecnología supera la inteligencia humana a la que no podemos controlar.

Si algún laboratorio se niega, quiere que los gobiernos «intervengan».

Musk teme que la tecnología se vuelva tan avanzada que ya no requiera, ni escuche, la interferencia humana.

Es un temor ampliamente compartido e incluso reconocido por el CEO de AI, la compañía que creó ChatGPT, quien dijo a principios de este mes que la tecnología podría desarrollarse y aprovecharse para cometer ataques cibernéticos ‘generalizados’.

El fundador de DeepAI, Kevin Baragona, quien estuvo entre los que lo firmaron, explicó por qué el campo de la IA, que avanza rápidamente, era tan peligroso.

«Es casi como una guerra entre chimpancés y humanos», dijo a DailyMail.com.

“Obviamente, los humanos ganan, ya que somos mucho más inteligentes y podemos aprovechar una tecnología más avanzada para derrotarlos.

‘Si somos como los chimpancés, entonces la IA nos destruirá, o seremos esclavizados por ella’.

Este mes, el ‘padrino’ de la inteligencia artificial Geoffrey Hinton, de 75 años, lanzó una granada al acalorado debate sobre los peligros de la tecnología, luego de renunciar sensacionalmente a su trabajo en Google y decir que lamenta el trabajo de su vida.

Hinton dijo que los chatbots ya pueden tener más conocimiento general que un cerebro humano.

Agregó que era solo cuestión de tiempo antes de que la IA también nos eclipsara en cuanto al razonamiento.

En este punto, dijo, los ‘malos actores’ como el presidente ruso Vladimir Putin podrían usar la IA para ‘cosas malas’ al programar robots para ‘obtener más poder’.

En 1970, el cofundador del laboratorio de inteligencia artificial del MIT, Marvin Minsky, dijo a la revista Life, «de tres a ocho años, tendremos una máquina con la inteligencia general de un ser humano promedio».

Y si bien el momento de la predicción no fue correcto, la idea de que la IA tenga inteligencia humana no lo es.

ChatGPT es una prueba de lo rápido que crece la tecnología.

En solo unos meses, aprobó el examen de la barra con una puntuación más alta que el 90 por ciento de los humanos que lo tomaron, y logró una precisión del 60 por ciento en el Examen de licencia médica de EE. UU.

‘Los grandes modelos de lenguaje que existen hoy en día ya son una revolución suficiente para impulsar diez años de crecimiento monumental, incluso sin más avances tecnológicos. Ya son increíblemente perjudiciales, dijo Baragona a DailyMail.com.

«Afirmar que necesitamos más avances tecnológicos en este momento es irresponsable y podría tener consecuencias económicas y de calidad de vida devastadoras».

Fuente

Salir de la versión móvil