A pesar del papel importante y cada vez mayor de la inteligencia artificial en muchas partes de la sociedad moderna, hay muy poca política o regulación que rija el desarrollo y uso de los sistemas de IA en los EE. dando lugar a decisiones y situaciones que han suscitado críticas.
Google despidió a un empleado quienes expresaron públicamente su preocupación sobre cómo un cierto tipo de IA puede contribuir a problemas ambientales y sociales. Otras empresas de IA han desarrollado productos que utilizan las organizaciones como el Departamento de Policía de Los Ángeles donde se les ha mostrado reforzar las políticas racialmente sesgadas existentes.
Hay algún gobierno recomendaciones y guía sobre el uso de la IA. Pero a principios de octubre de 2022, la Oficina de Política Científica y Tecnológica de la Casa Blanca se sumó a la orientación federal en gran medida al publicar el Plan para una declaración de derechos de la IA.
La Oficina de Ciencia y Tecnología dice que las protecciones descritas en el documento deben aplicarse a todos los sistemas automatizados. los Plano explica en detalle «cinco principios que deben guiar el diseño, uso e implementación de sistemas automatizados para proteger al público estadounidense en la era de la inteligencia artificial». La esperanza es que este documento pueda actuar como una guía para ayudar a evitar que los sistemas de IA limiten los derechos de los residentes de EE. UU.
Como informático que estudia las formas en que las personas interactúan con los sistemas de IA, y en particular cómo la lucha contra la negritud media en esas interacciones, considero que esta guía es un paso en la dirección correcta, aunque tiene algunos agujeros y no se puede hacer cumplir.
Mejorando los sistemas para todos
Los primeros dos principios tienen como objetivo abordar la seguridad y la eficacia de los sistemas de IA, así como el gran riesgo de que la IA promueva la discriminación.
Para mejorar la seguridad y la eficacia de la IA, el primer principio sugiere que los sistemas de IA deben ser desarrollados no solo por expertos, sino también con aportes directos de las personas y comunidades que usarán y se verán afectadas por los sistemas. Las comunidades explotadas y marginadas a menudo se ven obligadas a lidiar con las consecuencias de los sistemas de IA sin tener mucho que decir en su desarrollo. La investigación ha demostrado que Es importante la participación directa y genuina de la comunidad en el proceso de desarrollo. para implementar tecnologías que tengan un impacto positivo y duradero en esas comunidades.
El segundo principio se centra en la problema conocido de discriminación algorítmica dentro de los sistemas de IA. Un ejemplo bien conocido de este problema es cómo los algoritmos de aprobación de hipotecas discriminan a las minorías. El documento pide a las empresas que desarrollen sistemas de inteligencia artificial que no traten a las personas de manera diferente en función de su raza, sexo u otra estado de clase protegida. Sugiere que las empresas empleen herramientas como evaluaciones de equidad que pueden ayudar a evaluar cómo un sistema de IA puede afectar a los miembros de las comunidades explotadas y marginadas.
Estos dos primeros principios abordan grandes problemas de sesgo y equidad que se encuentran en el desarrollo y uso de la IA.
Privacidad, transparencia y control
Los últimos tres principios describen formas de dar a las personas más control al interactuar con los sistemas de IA.
El tercer principio es sobre la privacidad de los datos. Busca garantizar que las personas tengan más voz sobre cómo se usan sus datos y estén protegidas contra prácticas abusivas de datos. Esta sección pretende abordar situaciones en las que, por ejemplo, las empresas utilizan diseño engañoso manipular a los usuarios para que regalando sus datos. El plan exige prácticas como no tomar los datos de una persona a menos que dé su consentimiento y preguntar de una manera que sea comprensible para esa persona.
El siguiente principio se enfoca en “aviso y explicación”. Destaca la importancia de la transparencia: las personas deben saber cómo se utiliza un sistema de IA, así como las formas en que una IA contribuye a los resultados que podrían afectarlos. Tomemos, por ejemplo, la Administración de Servicios Infantiles de la Ciudad de Nueva York. Las investigaciones han demostrado que la agencia utiliza Sistemas de inteligencia artificial subcontratados para predecir el maltrato infantilse están utilizando sistemas que la mayoría de las personas no se dan cuenta, incluso cuando están siendo investigados.
La Declaración de derechos de la IA proporciona una directriz de que las personas en Nueva York en este ejemplo que se ven afectadas por los sistemas de IA en uso deben ser notificadas de que una IA estuvo involucrada y tener acceso a una explicación de lo que hizo la IA. La investigación ha demostrado que crear transparencia en los sistemas de IA puede reducir el riesgo de errores o mal uso.
El último principio de la Declaración de Derechos de AI describe un marco para las alternativas humanas, la consideración y la retroalimentación. La sección especifica que las personas deberían poder optar por no usar IA u otros sistemas automatizados a favor de una alternativa humana cuando sea razonable.
Como ejemplo de cómo estos dos últimos principios podrían funcionar juntos, tomemos el caso de alguien que solicita una hipoteca. Se les informaría si se usó un algoritmo de IA para considerar su solicitud y tendrían la opción de optar por no usar esa IA a favor de una persona real.
Directrices inteligentes, sin aplicabilidad
Los cinco principios establecidos en la Declaración de derechos de la IA abordan muchas de las cuestiones que los académicos han planteado sobre el diseño y el uso de la IA. No obstante, este es un documento no vinculante y actualmente no aplicable.
Puede ser demasiado esperar que la industria y las agencias gubernamentales pongan en práctica estas ideas de la manera exacta en que insta la Casa Blanca. Si la batalla regulatoria en curso sobre la privacidad de los datos ofrece alguna orientación, las empresas tecnológicas seguir presionando por la autorregulación.
Otro problema que veo en la Declaración de derechos de AI es que no llama directamente sistemas de opresión – como el racismo o el sexismo – y cómo pueden influir en el uso y desarrollo de la IA. Por ejemplo, los estudios han demostrado que las suposiciones inexactas integradas en los algoritmos de IA utilizados en el cuidado de la salud han llevado a peor atención para los pacientes negros. He argumentado que el racismo contra los negros debe ser abordado directamente al desarrollar sistemas de IA. Si bien la Declaración de Derechos de AI aborda ideas de parcialidad y equidad, la falta de enfoque en los sistemas de opresión es un agujero notable y una problema conocido dentro del desarrollo de IA.
A pesar de estas deficiencias, este plan podría ser un paso positivo hacia mejores sistemas de IA y quizás el primer paso hacia la regulación. Un documento como este, incluso si no es una política, puede ser una poderosa referencia para las personas que abogan por cambios en la forma en que una organización desarrolla y utiliza los sistemas de IA.