Inicio Política Regulación de la IA: 3 expertos explican por qué es difícil hacerlo...

Regulación de la IA: 3 expertos explican por qué es difícil hacerlo e importante hacerlo bien

0
Regulación de la IA: 3 expertos explican por qué es difícil hacerlo e importante hacerlo bien

De fotos falsas de Donald Trump siendo arrestado por agentes de policía de la ciudad de Nueva York a un chatbot que describe un informático muy vivo como si hubiera muerto trágicamente, la capacidad de la nueva generación de sistemas de inteligencia artificial generativa para crear textos e imágenes convincentes pero ficticios está activando las alarmas sobre el fraude y la desinformación con esteroides. De hecho, un grupo de investigadores de inteligencia artificial y figuras de la industria instaron a la industria el 29 de marzo de 2023 a detener la capacitación adicional de las últimas tecnologías de IA o, salvo eso, a los gobiernos a «imponer una moratoria».

Estas tecnologías, generadores de imágenes como DALL-E, a mitad de camino y Difusión establey generadores de texto como Bardo, ChatGPT, Chinchilla y Llama – ahora están disponibles para millones de personas y no requieren conocimientos técnicos para su uso.

Dado el potencial de daño generalizado a medida que las empresas de tecnología implementan estos sistemas de inteligencia artificial y los prueban en el público, los formuladores de políticas se enfrentan a la tarea de determinar si regular la tecnología emergente y cómo hacerlo. The Conversation pidió a tres expertos en política tecnológica que explicaran por qué regular la IA es un desafío tan grande y por qué es tan importante hacerlo bien.

Para avanzar a cada respuesta, aquí hay una lista de cada una:


Debilidades humanas y un objetivo en movimiento
Combinar enfoques «suaves» y «duros»
Cuatro preguntas clave para hacer


Debilidades humanas y un objetivo en movimiento

S. Shyam Sundar, Profesor de Efectos de los Medios y Director, Centro para la IA Socialmente Responsable, Penn State

La razón para regular la IA no es que la tecnología esté fuera de control, sino que la imaginación humana está desproporcionada. La gran cobertura mediática ha alimentado Creencias irracionales sobre las habilidades y la conciencia de la IA. Tales creencias se basan en “sesgo de automatización” o la tendencia a bajar la guardia cuando las máquinas están realizando una tarea. un ejemplo es vigilancia reducida entre los pilotos cuando su avión está volando en piloto automático.

Numerosos estudios en mi laboratorio han demostrado que cuando se identifica una máquina, en lugar de un ser humano, como fuente de interacción, desencadena un atajo mental en la mente de los usuarios que llamamos «máquina heurística.” Este atajo es la creencia de que las máquinas son precisas, objetivas, imparciales, infalibles, etc. Nubla el juicio del usuario y hace que el usuario confíe demasiado en las máquinas. Sin embargo, simplemente desengañar a las personas de la infalibilidad de la IA no es suficiente, porque se sabe que los humanos inconscientemente asumen la competencia incluso cuando la tecnología no lo garantiza.

La investigación también ha demostrado que la gente trata a las computadoras como seres sociales cuando las máquinas muestran incluso el más mínimo indicio de humanidad, como el uso del lenguaje conversacional. En estos casos, las personas aplican reglas sociales de interacción humana, como la cortesía y la reciprocidad. Entonces, cuando las computadoras parecen sensibles, la gente tiende a confiar en ellas ciegamente. Se necesita una regulación para garantizar que los productos de IA merezcan esta confianza y no la exploten.

La IA plantea un desafío único porque, a diferencia de los sistemas de ingeniería tradicionales, los diseñadores no pueden estar seguros de cómo se comportarán los sistemas de IA. Cuando un automóvil tradicional salía de la fábrica, los ingenieros sabían exactamente cómo funcionaría. Pero con los coches autónomos, los ingenieros nunca se puede estar seguro de cómo se desempeñará en situaciones nuevas.

Últimamente, miles de personas en todo el mundo se han maravillado con lo que producen los grandes modelos generativos de IA como GPT-4 y DALL-E 2 en respuesta a sus indicaciones. Ninguno de los ingenieros involucrados en el desarrollo de estos modelos de IA podría decirle exactamente qué producirán los modelos. Para complicar las cosas, tales modelos cambian y evolucionan con más y más interacción.

Todo esto significa que hay mucho potencial para fallos de encendido. Por lo tanto, mucho depende de cómo se implementen los sistemas de IA y qué disposiciones de recurso existan cuando se lesionen las sensibilidades o el bienestar humanos. La IA es más una infraestructura, como una autopista. Puede diseñarlo para dar forma a los comportamientos humanos en el colectivo, pero necesitará mecanismos para abordar los abusos, como el exceso de velocidad, y los sucesos impredecibles, como los accidentes.

Los desarrolladores de IA también deberán ser excesivamente creativos al imaginar formas en que el sistema podría comportarse y tratar de anticipar posibles violaciones de las normas y responsabilidades sociales. Esto significa que existe la necesidad de marcos regulatorios o de gobernanza que se basen en auditorías y controles periódicos de los resultados y productos de la IA, aunque creo que estos marcos también deberían reconocer que los diseñadores de sistemas no siempre pueden ser responsables de los contratiempos.

La investigadora de inteligencia artificial Joanna Bryson describe cómo las organizaciones profesionales pueden desempeñar un papel en la regulación de la IA.

Combinar enfoques ‘suaves’ y ‘duros’

Cason Schmit, Profesor Asistente de Salud Pública, Universidad Texas A&M

Regular la IA es complicado. Para regular bien la IA, primero debe definir la IA y comprender los riesgos y beneficios anticipados de la IA. Definir legalmente la IA es importante para identificar qué está sujeto a la ley. Pero las tecnologías de IA aún están evolucionando, por lo que es difícil precisar una definición legal estable.

También es importante comprender los riesgos y beneficios de la IA. Las buenas regulaciones deben maximizar los beneficios públicos mientras minimizando los riesgos. Sin embargo, las aplicaciones de IA aún están surgiendo, por lo que es difícil saber o predecir cuáles podrían ser los riesgos o beneficios futuros. Este tipo de incógnitas hacen que las tecnologías emergentes como la IA sean extremadamente dificil de regular con las leyes y reglamentos tradicionales.

Los legisladores son a menudo demasiado lento para adaptarse al entorno tecnológico que cambia rápidamente. Alguno nuevas leyes son obsoletos en el momento en que se promulgan o incluso introducido. Sin nuevas leyes, los reguladores hay que usar leyes antiguas dirigirse nuevos problemas. A veces esto conduce a barreras legales para beneficios sociales o lagunas legales para conducta nociva.

Leyes blandas” son la alternativa a los enfoques tradicionales de “ley dura” de la legislación destinada a prevenir violaciones específicas. En el enfoque de derecho indicativo, una organización privada establece reglas o normas para los miembros de la industria. Estos pueden cambiar más rápidamente que la legislación tradicional. Esto hace leyes blandas prometedoras para las tecnologías emergentes porque pueden adaptarse rápidamente a nuevas aplicaciones y riesgos. Sin embargo, las leyes suaves pueden significar una aplicación suave.

megan doerr, jennifer wagner y I proponer una tercera vía: Copyleft AI con Trusted Enforcement (CAITE). Este enfoque combina dos conceptos muy diferentes en propiedad intelectual: licencias copyleft y trolls de patentes.

La licencia de copyleft permite que el contenido se use, reutilice o modifique fácilmente bajo los términos de una licencia, por ejemplo, software de código abierto. El modelo CAITE utiliza licencias copyleft para exigir a los usuarios de IA que sigan pautas éticas específicas, como evaluaciones transparentes del impacto del sesgo.

En nuestro modelo, estas licencias también transfieren el derecho legal de hacer cumplir las infracciones de licencia a un tercero de confianza. Esto crea una entidad de cumplimiento que existe únicamente para hacer cumplir los estándares éticos de IA y puede financiarse en parte con multas por conducta poco ética. Esta entidad es como un troll de patentes en el sentido de que es privada en lugar de gubernamental y se mantiene haciendo cumplir los derechos legales de propiedad intelectual que obtiene de otros. En este caso, en lugar de la aplicación con fines de lucro, la entidad hace cumplir las pautas éticas definidas en las licencias: un «troll para siempre».

Este modelo es flexible y adaptable para satisfacer las necesidades de un entorno de IA cambiante. También permite opciones de aplicación sustanciales como un regulador gubernamental tradicional. De esta manera, combina los mejores elementos de los enfoques de leyes duras y blandas para enfrentar los desafíos únicos de la IA.

Aunque la IA generativa ha ocupado los titulares últimamente, otros tipos de IA han planteado desafíos para los reguladores durante años, particularmente en el área de privacidad de datos.

Cuatro preguntas clave para hacer

John Villasenor, Profesor de Ingeniería Eléctrica, Derecho, Políticas Públicas y Gestión, Universidad de California, Los Ángeles

El extraordinarios avances recientes en lenguaje grande, la IA generativa basada en modelos está impulsando llamados para crear una nueva regulación específica de IA. Aquí hay cuatro preguntas clave para hacer a medida que avanza el diálogo:

1) ¿Es necesaria una nueva regulación específica para la IA? Muchos de los resultados potencialmente problemáticos de los sistemas de IA ya se abordan en los marcos existentes. Si un algoritmo de inteligencia artificial utilizado por un banco para evaluar las solicitudes de préstamo conduce a decisiones de préstamos racialmente discriminatorias, eso violaría la Ley de Vivienda Justa. Si el software de IA en un automóvil sin conductor causa un accidente, la ley de responsabilidad por productos proporciona una marco para buscar remedios.

2) ¿Cuáles son los riesgos de regular una tecnología que cambia rápidamente en función de una instantánea del tiempo? Un ejemplo clásico de esto es el Ley de comunicaciones almacenadas, que se promulgó en 1986 para abordar las entonces novedosas tecnologías de comunicación digital como el correo electrónico. Al promulgar la SCA, el Congreso proporcionó una protección de privacidad sustancialmente menor para los correos electrónicos con más de 180 días de antigüedad.

La lógica era que el espacio de almacenamiento limitado significaba que las personas limpiaban constantemente sus bandejas de entrada eliminando mensajes antiguos para dejar espacio para los nuevos. Como resultado, los mensajes almacenados durante más de 180 días se consideraron menos importantes desde el punto de vista de la privacidad. No está claro si esta lógica alguna vez tuvo sentido, y ciertamente no tiene sentido en la década de 2020, cuando la mayoría de nuestros correos electrónicos y otras comunicaciones digitales almacenadas tienen más de seis meses.

Una réplica común a las preocupaciones sobre la regulación de la tecnología basada en una sola instantánea en el tiempo es la siguiente: si una ley o regulación se vuelve obsoleta, actualícela. Pero esto es más fácil decirlo que hacerlo. La mayoría de la gente está de acuerdo en que la SCA quedó obsoleta hace décadas. Pero debido a que el Congreso no ha podido ponerse de acuerdo específicamente sobre cómo revisar la disposición de los 180 días, todavía está en los libros más de un tercio de siglo después de su promulgación.

3) ¿Cuáles son las posibles consecuencias no deseadas? El Permitir que los estados y las víctimas combatan la Ley de tráfico sexual en línea de 2017 fue una ley aprobada en 2018 que revisó Sección 230 de la Ley de Decencia en las Comunicaciones con el objetivo de combatir el tráfico sexual. Si bien hay poca evidencia de que haya reducido el tráfico sexual, ha tenido un impacto enormemente problemático en un grupo diferente de personas: trabajadoras sexuales que solían confiar en los sitios web desconectados por FOSTA-SESTA para intercambiar información sobre clientes peligrosos. Este ejemplo muestra la importancia de tener una visión amplia de los efectos potenciales de las regulaciones propuestas.

4) ¿Cuáles son las implicaciones económicas y geopolíticas? Si los reguladores en los Estados Unidos actúan para ralentizar intencionalmente el progreso de la IA, eso simplemente impulsará la inversión y la innovación, y la consiguiente creación de empleo, en otros lugares. Si bien la IA emergente plantea muchas preocupaciones, también promete traer enormes beneficios en áreas que incluyen educación, medicamentofabricación, seguridad en el transporteagricultura, pronóstico del tiempo, acceso a servicios legales y más.

Creo que las regulaciones de IA redactadas con las cuatro preguntas anteriores en mente tendrán más probabilidades de abordar con éxito los daños potenciales de la IA y al mismo tiempo garantizar el acceso a sus beneficios.

Fuente

Salir de la versión móvil