Lo que a menudo se subestima es que el arco de la tecnología se remonta a la historia. Aunque la construcción de la IA puede ser racional (pensemos en ecuaciones matemáticas), es la lógica confusa de la sociedad la que realmente alimenta y potencia esta tecnología. En ninguna parte esto es más claro que en el papel de los datos como base de la IA.
Los datos son una construcción social, nunca son neutrales porque dependen de quién los produce, los transmite e incluso los reconstruye.
En el sudeste asiático colonial, los administradores recopilaron datos a través de encuestas censales y ejercicios cartográficos para los responsables políticos de metrópolis distantes que participaban en la construcción del imperio. A partir de esos datos surgieron narrativas que a menudo redujeron a los súbditos coloniales a estereotipos, allanando el camino para la conquista y, más tarde, las políticas de divide y vencerás.
El legado de este marco ensombrece a muchos estados modernos del sudeste asiático décadas después de la independencia. Las categorías que se utilizaron para etiquetarnos bajo el dominio colonial forman la base de muchos marcadores demográficos en los documentos oficiales actuales.
En Malasia, por ejemplo, los hijos de matrimonios mixtos normalmente sólo son reconocidos oficialmente por una etnia. Esto no sólo borra una parte sustancial de la herencia cultural de una persona, sino que tergiversa toda su identidad por conveniencia burocrática.
Los formuladores de políticas en todo el Sudeste Asiático parecen ser conscientes de los riesgos de los datos incompletos, inexactos o sesgados. La Guía de la ASEAN sobre gobernanza y ética de la IA publicada recientemente exige centrarse en lo humano y advertir contra los prejuicios. Los documentos de estrategia nacional hacen eco de mensajes similares de preservación de la equidad, la inclusión y la justicia. Incluso los campeones tecnológicos locales se están comprometiendo con el uso ético de la IA.
Pero encajar el elemento cuadrado de la ética en el agujero redondo de los negocios puede resultar complicado. Para mitigar el sesgo en los datos es necesario que los conjuntos de datos sean completos. Incluso si, como mínimo, la calidad de los datos resulta incuestionable, debe existir un consentimiento informado y expreso para la recopilación de datos para fines específicos y no generales.
También debería haber consenso sobre quién poseería, gestionaría o gobernaría dichos datos. Esta puede ser una cuestión especialmente delicada en relación con el conocimiento cultural o las prácticas tradicionales de grupos históricamente marginados o explotados.
Computadora, tus prejuicios se están mostrando
Computadora, tus prejuicios se están mostrando
Si bien la ética y las perspectivas económicas no son mutuamente excluyentes, tampoco siempre cuadran claramente. Por ejemplo, el software de inteligencia artificial que enmascara o borra los acentos locales para que, por ejemplo, los representantes de servicio al cliente en Filipinas puedan ser mejor comprendidos por su clientela principalmente occidental plantea dilemas.
Por un lado, facilita la comunicación y ofrece oportunidades de empleo a un grupo potencialmente más amplio de reclutas. Por otro lado, pone de relieve consideraciones inquietantes sobre la dinámica y la jerarquía del poder global. También minimiza las distinciones culturales con fines puramente utilitarios.
Quizás la verdadera pregunta aquí no es cómo se puede promover la centralidad humana garantizando barreras de seguridad que rodeen el uso de la IA. Se trata de si enmarcar los debates sobre la gobernanza de la IA dentro de los modelos de negocio prevalecientes impulsados por las ganancias puede proporcionar garantías significativas de equidad social y, en última instancia, global.
A medida que las prácticas de recopilación de datos del pasado, basadas en la economía de extracción y explotación del imperio, encuentran paralelos digitales en el etiquetado geográfico, la vigilancia biométrica y el reconocimiento de comportamiento de hoy, las partes interesadas del sudeste asiático se beneficiarían de ampliar las deliberaciones sobre la IA más allá de los cálculos monetarios.
Lo ideal sería que la tecnología digital, incluida la IA, se considerara por igual en los tres pilares político-de seguridad, económico y sociocultural de la Asean.
Los asesores multidisciplinarios de diversos orígenes y geografías que recomienda la guía de la ASEAN deben incluir historiadores, antropólogos y otros expertos en humanidades. Además, las conversaciones políticas sobre la gobernanza de la IA en una región tan variada como el Sudeste Asiático con su reciente pasado colonial se beneficiarían de los intercambios con otras partes del Sur Global.
Hay mucho que aprovechar de los estudios africanos contemporáneos que defienden la inclusión de ubuntu – la idea de valores colectivos, así como vínculos sociales y ambientales – en la gobernanza de la IA, el impacto del conocimiento indígena en la agricultura inteligente y la experiencia de las sociedades latinoamericanas con sistemas algorítmicos de toma de decisiones construidos en el Norte Global.
Para enriquecer los debates sobre la gobernanza de la IA, los algoritmos del futuro del sudeste asiático deberían ser más que una réplica digital de su pasado.
Elina Noor es investigadora principal del Programa de Asia del Carnegie Endowment for International Peace.