Inicio Mundo La herramienta de inteligencia artificial podría influir en las decisiones de inmigración...

La herramienta de inteligencia artificial podría influir en las decisiones de inmigración del Ministerio del Interior, dicen los críticos

0
La herramienta de inteligencia artificial podría influir en las decisiones de inmigración del Ministerio del Interior, dicen los críticos

Una herramienta de inteligencia artificial del Ministerio del Interior que propone medidas coercitivas contra adultos y niños migrantes podría hacer que a los funcionarios les resulte demasiado fácil aprobar decisiones automatizadas que cambien sus vidas, han dicho los activistas.

A medida que surgieron nuevos detalles del sistema de control de inmigración impulsado por inteligencia artificial, los críticos lo llamaron un “trabajador social robótico” que podría “codificar injusticias” porque un algoritmo está involucrado en la toma de decisiones, incluido el regreso de las personas a sus países de origen.

El gobierno insiste en que ofrece eficiencia al priorizar el trabajo y que un ser humano sigue siendo responsable de cada decisión. Se está utilizando en medio de un creciente número de casos de solicitantes de asilo que están sujetos a medidas de expulsión, actualmente unas 41.000 personas.

Los defensores de los derechos de los inmigrantes pidieron al Ministerio del Interior que retirara el sistema, alegando que se trataba de “tecnología que se utiliza para hacer más eficiente la crueldad y el daño”.

Se ha hecho posible vislumbrar el funcionamiento de un sistema en gran medida opaco después de una batalla por la libertad de información que duró un año, en la que se entregaron manuales redactados y evaluaciones de impacto al grupo de campaña Privacy International. También revelaron que a las personas cuyos casos están siendo procesados ​​por el algoritmo no se les dice específicamente que la IA está involucrada.

El sistema es uno de varios programas de inteligencia artificial que las autoridades públicas del Reino Unido están implementando a medida que los funcionarios buscan mayor velocidad y eficiencia. Hay llamados a una mayor transparencia sobre el uso gubernamental de la IA en campos que van desde la salud hasta el bienestar.

El secretario de Estado de Ciencia, Peter Kyle, dicho La IA tenía «un potencial increíble para mejorar nuestros servicios públicos… pero, para aprovecharlo al máximo, necesitamos generar confianza en estos sistemas».

Las divulgaciones del Ministerio del Interior muestran que el sistema de Identificación y Priorización de Casos de Inmigración (IPIC) recibe una variedad de información personal sobre personas que son objeto de posibles acciones coercitivas, incluidos datos biométricos, marcadores étnicos y de salud y datos sobre condenas penales.

El propósito es “crear una manera más fácil, rápida y efectiva para que las autoridades de inmigración identifiquen, prioricen y coordinen los servicios/intervenciones necesarios para gestionar su carga de casos”, afirman los documentos.

Pero Privacy International dijo que temía que el sistema estuviera configurado de una manera que llevaría a funcionarios humanos a «aprobar» las recomendaciones del algoritmo para tomar medidas en un caso «porque es mucho más fácil… que mirar críticamente una recomendación y rechazarla».

Para que los funcionarios rechacen una decisión propuesta sobre “retornos” (enviar personas a su país de origen) deben dar una explicación por escrito y marcar las casillas relacionadas con los motivos. Pero para aceptar el veredicto de la computadora, no se requiere ninguna explicación y el funcionario hace clic en un botón marcado «aceptar» y confirma que el caso se ha actualizado en otros sistemas del Ministerio del Interior, según muestran los manuales de capacitación.

Cuando se le preguntó si esto introducía un sesgo a favor de aceptar la decisión de AI, el Ministerio del Interior declinó hacer comentarios.

Los funcionarios describen IPIC como una herramienta de flujo de trabajo basada en reglas que ofrece eficiencia para la aplicación de la ley de inmigración al recomendar a los trabajadores sociales el próximo caso o acción que deben considerar. Hicieron hincapié en que cada recomendación hecha en el sistema IPIC fue revisada por un asistente social que debía sopesarla según sus méritos individuales. El sistema también se está implementando en casos de ciudadanos de la UE que desean permanecer en el Reino Unido bajo el esquema de solución de la UE.

Jonah Mendelsohn, abogado de Privacy International, dijo que la herramienta del Ministerio del Interior podría afectar las vidas de cientos de miles de personas.

“Cualquiera que esté pasando por el sistema de migración actualmente no tiene forma de saber cómo se ha utilizado la herramienta en su caso y si lo está poniendo en riesgo de sufrir acciones coercitivas indebidas”, dijo. «Sin cambios para garantizar la transparencia algorítmica y la rendición de cuentas, la promesa del Ministerio del Interior de ser ‘digital por defecto’ para 2025 codificará aún más las injusticias en el sistema de inmigración».

Fizza Qureshi, directora ejecutiva de la Red de Derechos de los Migrantes, pidió que se retire la herramienta y expresó su preocupación de que la IA pueda generar prejuicios raciales.

«Hay una enorme cantidad de datos que se ingresan en IPIC, lo que significará un mayor intercambio de datos con otros departamentos gubernamentales para recopilar información de salud, y sugiere que esta herramienta también vigilará y monitoreará a los migrantes, invadiendo aún más su privacidad», dijo.

IPIC ha estado en funcionamiento generalizado desde 2019-20. El Ministerio del Interior rechazó consultas anteriores sobre libertad de información porque una mayor apertura “podría utilizarse para eludir los controles de inmigración al proporcionar información sobre cómo se clasifica el trabajo en el Ministerio del Interior y la aplicación de la ley de inmigración”.

Madeleine Sumption, directora del Observatorio de Migración de la Universidad de Oxford, dijo que el uso de la IA en el sistema de inmigración no era intrínsecamente malo, porque en teoría la IA podría mejorar la toma de decisiones humanas en lugar de reemplazarla.

Ella dijo: «El gobierno bien podría ser capaz de argumentar que la IA está conduciendo a una mejor toma de decisiones y reduciendo las detenciones innecesarias, pero sin una mayor transparencia no podemos saberlo».

Por ejemplo, si es poco probable que un país como Irán acepte nacionales deportados, perseguir esos casos podría considerarse un desperdicio de recursos limitados para hacer cumplir la ley. O si el argumento de una persona para permanecer está respaldado por las leyes de derechos humanos, lo que significa que es poco probable que sea deportada rápidamente, puede ser mejor priorizar otras expulsiones y, al hacerlo, evitar llevar a las personas a detención indefinida.

Documentos del Ministerio del Interior dicen que la herramienta se utiliza para “evaluar la capacidad de expulsión y el nivel de daño que representan los delincuentes de inmigración, automatizar la identificación y priorización de casos y proporcionar información sobre el tiempo que ha estado vigente una barrera para la expulsión”.

El mes pasado se presentó para debate en el parlamento del Reino Unido un nuevo proyecto de ley de datos que “permitiría efectivamente la toma de decisiones automatizada en la mayoría de las circunstancias”. según los abogados. Esto estaría permitido siempre que las personas afectadas puedan hacer representaciones, obtener una intervención humana significativa y cuestionar las decisiones automatizadas.

Fuente

Salir de la versión móvil