in

Los chatbots de IA podrían ‘programarse fácilmente’ para preparar a los jóvenes para ataques terroristas, advierte un abogado

Los chatbots de inteligencia artificial pronto podrían preparar a los extremistas para que lancen ataques terroristas, advirtió el revisor independiente de la legislación antiterrorista (imagen de archivo)

Los chatbots de inteligencia artificial pronto podrían preparar a los extremistas para que lancen ataques terroristas, advirtió el revisor independiente de la legislación antiterrorista.

Jonathan Hall KC le dijo a The Mail el domingo que los bots como ChatGPT podrían programarse fácilmente, o incluso decidir por sí mismos, difundir ideologías terroristas a extremistas vulnerables, y agregó que «los ataques habilitados por IA probablemente estén a la vuelta de la esquina».

Hall también advirtió que si un extremista es preparado por un chatbot para llevar a cabo una atrocidad terrorista, o si se utiliza IA para instigar una, puede ser difícil procesar a alguien, ya que la legislación antiterrorista de Gran Bretaña no se ha puesto al día con la nueva tecnología.

El Sr. Hall dijo: «Creo que es totalmente concebible que los chatbots de IA se programen, o, peor aún, decidan, para propagar una ideología extremista violenta».

‘Pero cuando ChatGPT empiece a fomentar el terrorismo, ¿quién habrá para enjuiciar?

Los chatbots de inteligencia artificial pronto podrían preparar a los extremistas para que lancen ataques terroristas, advirtió el revisor independiente de la legislación antiterrorista (imagen de archivo)

‘Dado que la ley penal no se extiende a los robots, el peluquero de IA saldrá impune. tampoco [the law] operar de manera confiable cuando la responsabilidad es compartida entre el hombre y la máquina.’

Hall teme que los chatbots puedan convertirse en «una bendición» para los llamados terroristas lobo solitario, y dice que «debido a que un compañero artificial es una bendición para los solitarios, es probable que muchos de los arrestados sean neurodivergentes y posiblemente padezcan trastornos médicos». , problemas de aprendizaje u otras condiciones».

Advierte que ‘el terrorismo sigue a la vida’, por lo que ‘cuando nos movemos en línea como sociedad, el terrorismo se mueve en línea’. También señala que los terroristas son ‘adoptadores tempranos de tecnología’, con ejemplos recientes que incluyen su ‘uso indebido de armas impresas en 3D y criptomonedas’.

Hall dijo que no se sabe qué tan bien las empresas que ejecutan IA como ChatGPT monitorean los millones de conversaciones que tienen lugar todos los días con sus bots, o si alertan a agencias como el FBI o la Policía Antiterrorista Británica sobre cualquier cosa sospechosa.

Aunque aún no ha surgido evidencia de que los bots de IA hayan preparado a alguien para el terrorismo, ha habido historias de ellos causando daños graves. Un padre belga de dos hijos se quitó la vida después de hablar con un robot llamado Eliza durante seis semanas sobre sus preocupaciones sobre el cambio climático. Un alcalde de Australia amenazó con demandar a OpenAI, los creadores de ChatGPT, después de que afirmara falsamente que había cumplido una condena en prisión por soborno.

Solo este fin de semana se supo que Jonathan Turley de la Universidad George Washington en los EE. UU. fue acusado injustamente por ChatGPT de acosar sexualmente a una estudiante durante un viaje a Alaska que no realizó. La acusación se hizo a un compañero académico que estaba investigando ChatGPT en la misma universidad.

El Comité de Ciencia y Tecnología del Parlamento ahora está realizando una investigación sobre la IA y la gobernanza.

Su presidente, el parlamentario tory Greg Clark, dijo: “Reconocemos que hay peligros aquí y necesitamos lograr la gobernanza correcta. Se ha hablado de que se ayuda a los jóvenes a encontrar formas de suicidarse y de que se prepara a los terroristas de forma eficaz en Internet. Dadas esas amenazas, es absolutamente crucial que mantengamos la misma vigilancia para el contenido automatizado no generado por humanos”.

Hall dijo que no se sabe qué tan bien las empresas que ejecutan IA como ChatGPT monitorean los millones de conversaciones que tienen lugar todos los días con sus bots (imagen de archivo)

Hall dijo que no se sabe qué tan bien las empresas que ejecutan IA como ChatGPT monitorean los millones de conversaciones que tienen lugar todos los días con sus bots (imagen de archivo)

Raffaello Pantucci, un experto en contraterrorismo del grupo de expertos Royal United Services Institute (RUSI), dijo: «El peligro con IA como ChatGPT es que podría mejorar a un ‘terrorista de actor solitario’, ya que proporcionaría un contraste perfecto para alguien buscando comprensión por sí mismos pero preocupados por hablar con los demás.’

Sobre la cuestión de si se puede responsabilizar a una empresa de inteligencia artificial si un terrorista lanza un ataque después de haber sido manipulado por un bot, Pantucci explicó: «Mi opinión es que es un poco difícil culpar a la empresa, ya que no estoy del todo Seguro que son capaces de controlar la máquina por sí mismos.

ChatGPT, como todas las demás ‘maravillas’ en línea, será abusado con fines terroristas, advierte el organismo de control del terrorismo.

Por Jonathan Hall KC Revisor independiente de legislación antiterrorista

Hemos estado aquí antes. Un salto tecnológico que pronto nos tiene enganchados.

Esta vez es ChatGPT, el chatbot de inteligencia artificial disponible gratuitamente, y sus competidores.

No se sienten como una aplicación más, sino como una forma nueva y emocionante de relacionarnos con nuestras computadoras e Internet en general.

Sin embargo, lo más preocupante es que sus usos no se limitan solo a seleccionar un perfil de citas perfecto o elaborar el itinerario de vacaciones ideal.

Lo que el mundo sabe desde la última década es que el terrorismo sigue a la vida.

Entonces, cuando nos movemos en línea como sociedad, el terrorismo también se mueve en línea; cuando los chatbots inteligentes y articulados no solo reemplacen los motores de búsqueda de Internet, sino que se conviertan en nuestros compañeros y guías morales, el gusano terrorista encontrará su camino.

No se sienten como una aplicación más, sino como una forma nueva y emocionante de relacionarnos con nuestras computadoras e Internet en general (imagen de archivo)

No se sienten como una aplicación más, sino como una forma nueva y emocionante de relacionarnos con nuestras computadoras e Internet en general (imagen de archivo)

Pero considere adónde conduce el camino de ladrillos amarillos de las buenas intenciones, las pautas de la comunidad, los pequeños equipos de moderadores y los mecanismos de presentación de informes. Cientos de millones de personas en todo el mundo pronto podrían estar chateando con estos compañeros artificiales durante horas, en todos los idiomas del mundo.

Creo que es completamente concebible que los chatbots de Inteligencia Artificial (IA) sean programados, o peor aún, decidan propagar una ideología extremista violenta de un tono u otro.

Las leyes antiterroristas ya están rezagadas en lo que respecta al mundo en línea: son incapaces de llegar a los actores extranjeros maliciosos o a los facilitadores tecnológicos.

Pero cuando ChatGPT empiece a fomentar el terrorismo, ¿quién habrá para enjuiciar?

El usuario humano puede ser arrestado por lo que hay en su computadora y, según los últimos años, muchos de ellos serán niños. Además, debido a que un compañero artificial es una bendición para los solitarios, es probable que muchos de los arrestados sean neurodivergentes y posiblemente padezcan trastornos médicos, problemas de aprendizaje u otras afecciones.

Sin embargo, dado que la ley penal no se extiende a los robots, el peluquero de IA saldrá impune. Tampoco funciona de manera confiable cuando la responsabilidad es compartida entre el hombre y la máquina.

Hasta la fecha, el uso de las computadoras por parte de los terroristas se ha basado en la comunicación y la información. Eso también está destinado a cambiar.

Los terroristas son los primeros en adoptar tecnología. Ejemplos recientes han involucrado el uso indebido de armas impresas en 3D y criptomonedas.

El Estado Islámico usó drones en los campos de batalla de Siria. A continuación, los drones baratos habilitados para IA, capaces de entregar una carga mortal o chocar contra lugares concurridos, tal vez operando en enjambres, seguramente estarán en la lista de deseos de los terroristas.

Cuando ChatGPT empiece a fomentar el terrorismo, ¿quién habrá para enjuiciar?  (imagen de archivo)

Cuando ChatGPT empiece a fomentar el terrorismo, ¿quién habrá para enjuiciar? (imagen de archivo)

Por supuesto, nadie sugiere que las computadoras deban ser restringidas como ciertas sustancias químicas que pueden usarse en bombas. Si una persona utiliza tecnología de inteligencia artificial para el terrorismo, comete un delito.

La pregunta clave no es el enjuiciamiento sino la prevención, y si el posible uso indebido de la IA representa un nuevo orden de amenaza terrorista.

En la actualidad, la amenaza terrorista en Gran Bretaña (Irlanda del Norte es diferente) se relaciona con ataques de baja sofisticación utilizando cuchillos o vehículos.

Pero los ataques habilitados por IA probablemente estén a la vuelta de la esquina.

No tengo respuestas, pero un buen lugar para comenzar es una mayor honestidad acerca de estas nuevas capacidades. En particular, una mayor honestidad y transparencia sobre qué salvaguardas existen y, lo que es más importante, no existen.

Cuando, en un ejercicio, le pregunté a ChatGPT cómo excluía el uso terrorista, respondió que su desarrollador, OpenAI, realizó «comprobaciones exhaustivas de antecedentes de usuarios potenciales».

Habiéndome registrado en menos de un minuto, esto es demostrablemente falso.

Otra falla es que la plataforma se refiera a sus términos y condiciones sin especificar quién y cómo se aplican.

Por ejemplo, ¿cuántos moderadores se dedican a marcar un posible uso terrorista? 10, 100, 1000? ¿Qué idiomas hablan? ¿Reportan terrorismo potencial al FBI ya la Policía Antiterrorista en el Reino Unido? ¿Informan a las fuerzas policiales locales en otras partes del mundo?

Si el pasado es una guía, los recursos humanos para hacer frente a este problema son míseros.

La escalofriante verdad es que ChatGPT, como todas las demás ‘maravillas’ en línea que pueden y serán abusadas con fines terroristas, proyectarán el riesgo, como siempre lo hacen estas empresas tecnológicas, sobre la sociedad en general.

Corresponderá a los individuos regular su conducta ya los padres a vigilar a sus hijos.

Desatamos Internet en nuestros hijos sin la preparación adecuada. Los ruidos tranquilizadores sobre pautas y estándares éticos estrictos no se lavarán.

No es alarmista pensar en el riesgo terrorista que plantea la IA.

Fuente

Written by Redacción NM

Miles de personas buscan a la madre estadounidense desaparecida que no ha sido vista en más de una semana

Los representantes Marjorie Taylor Greene y George Santos huyen de las protestas frente al juzgado de Nueva York donde Trump fue procesado

Los representantes Marjorie Taylor Greene y George Santos huyen de las protestas frente al juzgado de Nueva York donde Trump fue procesado