in

El fabricante de ChatGPT cambia silenciosamente las reglas para permitir que el ejército estadounidense incorpore su tecnología

OpenAI, el creador de ChatGPT, cambió silenciosamente sus reglas y eliminó la prohibición de usar el chatbot y sus otras herramientas de inteligencia artificial con fines militares (imagen de archivo)

OpenAI, el creador de ChatGPT, cambió silenciosamente sus reglas y eliminó la prohibición de usar el chatbot y sus otras herramientas de inteligencia artificial con fines militares, y reveló que ya está trabajando con el Departamento de Defensa.

Los expertos han expresado anteriormente su temor de que la IA pueda intensificar los conflictos en todo el mundo gracias a los ‘robots matadores’ que pueden matar sin intervención humana.

El cambio de regla, que se produjo después del miércoles de la semana pasada, eliminó una frase que decía que la compañía no permitiría el uso de modelos para «actividades que tengan un alto riesgo de daño físico, incluyendo: desarrollo de armas, militares y guerra».

Un portavoz de OpenAI dijo a DailyMail.com que la compañía, que está en conversaciones para recaudar dinero por una valoración de 100 mil millones de dólares, está trabajando con el Departamento de Defensa en herramientas de ciberseguridad diseñadas para proteger el software de código abierto.

OpenAI, el creador de ChatGPT, cambió silenciosamente sus reglas y eliminó la prohibición de usar el chatbot y sus otras herramientas de inteligencia artificial con fines militares (imagen de archivo)

El portavoz dijo: ‘Nuestra política no permite que nuestras herramientas se utilicen para dañar a personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades.

‘Sin embargo, hay casos de uso de seguridad nacional que se alinean con nuestra misión.

‘Por ejemplo, ya estamos trabajando con la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para impulsar la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la industria y la infraestructura crítica.

‘No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo ‘militar’ en nuestras políticas anteriores. Entonces, el objetivo de nuestra actualización de políticas es brindar claridad y la capacidad de tener estas discusiones».

El año pasado, 60 países, incluidos Estados Unidos y China, firmaron un «llamado a la acción» para limitar el uso de inteligencia artificial (IA) por razones militares.

Los expertos en derechos humanos en La Haya señalaron que el ‘llamado a la acción’ no es legalmente vinculante y no abordó preocupaciones que incluían drones letales con IA o que la IA podría intensificar los conflictos existentes.

Los firmantes dijeron que estaban comprometidos a desarrollar y utilizar la IA militar de acuerdo con «las obligaciones legales internacionales y de una manera que no socave la seguridad, la estabilidad y la responsabilidad internacionales».

Ucrania ha utilizado el reconocimiento facial y sistemas de puntería asistidos por IA en su lucha con Rusia.

En 2020, las fuerzas del gobierno libio lanzaron un dron turco autónomo Kargu-2 que atacó a soldados rebeldes en retirada, el primer ataque de este tipo en la historia, según un informe de la ONU.

El letal dron fue programado para atacar «sin requerir conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de ‘disparar, olvidar y encontrar'», dice el informe de la ONU.

Anna Makanju, vicepresidenta de asuntos globales de OpenAI, dijo en una entrevista esta semana que la disposición «general» se eliminó para permitir casos de uso militar con los que la compañía está de acuerdo.

Makanju dijo a Bloomberg: «Debido a que anteriormente teníamos lo que era esencialmente una prohibición general sobre el uso militar, mucha gente pensó que eso prohibiría muchos de estos casos de uso, que la gente cree que están muy alineados con lo que queremos ver en el mundo».

Sam Altman de OpenAI habla en Davos (Getty)

Sam Altman de OpenAI habla en Davos (Getty)

El uso de la IA con fines militares por parte de las «grandes tecnologías» ha causado controversia en el pasado.

En 2018, miles de empleados de Google protestaron contra un contrato del Pentágono, el Proyecto Maven, en el que se utilizaban herramientas de inteligencia artificial de la compañía para analizar imágenes de vigilancia de drones.

A raíz de las protestas, Google no renovó el contrato.

Los empleados de Microsoft protestaron contra un contrato de 480 millones de dólares para proporcionar a los soldados cascos de realidad aumentada.

En 2017, líderes tecnológicos, incluido Elon Musk, escribieron a la ONU pidiendo que se prohibieran las armas autónomas, en virtud de leyes similares a las que prohíben las armas químicas y los láseres construidos para cegar a las personas.

El grupo advirtió que las armas autónomas amenazaban con marcar el comienzo de una «tercera revolución en la guerra»: las dos primeras serían la pólvora y las armas nucleares.

Los expertos advirtieron que una vez abierta la «caja de Pandora» de armamento totalmente autónomo, puede resultar imposible volver a cerrarla.

¿Podría la IA controlar aviones sin piloto construidos para elegir objetivos y matar?

En un futuro próximo, la inteligencia artificial controlará los aviones de ataque sin piloto, dice el ex agente y autor del MI6 Carlton King.

Las ventajas de poder utilizar el aprendizaje automático para pilotar naves de ataque serán muy tentadoras para los líderes militares.

King dice: «En el momento en que empiezas a darle aprendizaje automático a un robot independiente, empiezas a perder el control sobre él». Habrá la tentación de decir: «Dejemos que un robot lo haga todo».

King dice que en la actualidad los aviones no tripulados son pilotados por pilotos en Estados Unidos y Gran Bretaña, pero que los líderes militares pueden verse tentados a eliminar al ser humano de la ecuación.

King dice: «Claramente habrá, si no lo hay ya, un movimiento para retirar a ese piloto en tierra, porque sus reacciones pueden no ser lo suficientemente rápidas, y ponerlo en manos de una inteligencia artificial, que reacciona». Son mucho más rápidos y toman la decisión de disparar o no disparar.

Fuente

Written by Redacción NM

La ‘mayor amenaza’ de Trump se retira de la carrera

La votación en New Hampshire no se parece a la de otros estados: he aquí por qué es importante para las primarias republicanas

La votación en New Hampshire no se parece a la de otros estados: he aquí por qué es importante para las primarias republicanas