Un ingeniero de software de Google fue suspendido después de hacer públicas sus afirmaciones de encontrar inteligencia artificial «consciente» en los servidores de la empresa, lo que provocó un debate sobre cómo y si la IA puede lograr la conciencia. Los investigadores dicen que es una desafortunada distracción de problemas más apremiantes en la industria.
El ingeniero, Blake Lemoine, dijo que creía que el chatbot de inteligencia artificial de Google era capaz de expresar emociones humanas, lo que planteaba cuestiones éticas. Google lo puso en licencia por compartir información confidencial y dijo que sus preocupaciones no tenían base en los hechos, una opinión ampliamente compartida en la comunidad de IA. Lo que es más importante, dicen los investigadores, es abordar cuestiones como si la IA puede generar daños y prejuicios en el mundo real, si los humanos reales son explotados en el entrenamiento de la IA y cómo las principales empresas tecnológicas actúan como guardianes del desarrollo de la tecnología.
La postura de Lemoine también puede facilitar que las empresas de tecnología abdiquen la responsabilidad de las decisiones impulsadas por la IA, dijo Emily Bender, profesora de lingüística computacional en la Universidad de Washington. “Se ha puesto mucho esfuerzo en este espectáculo secundario”, dijo. “El problema es que cuanto más se vende esta tecnología como inteligencia artificial, y mucho menos como algo sensible, más personas están dispuestas a aceptar los sistemas de IA” que pueden causar daños en el mundo real.
Bender señaló ejemplos en la contratación laboral y la calificación de los estudiantes, que pueden tener prejuicios incrustados según los conjuntos de datos que se usaron para entrenar la IA. Si el foco está en la sensibilidad aparente del sistema, dijo Bender, crea una distancia de la responsabilidad directa de los creadores de IA por cualquier falla o sesgo en los programas.
Lo mejor de Express Premium
El Washington Post publicó el sábado una entrevista con Lemoine, quien conversó con un sistema de inteligencia artificial llamado LaMDA, o Modelos de lenguaje para aplicaciones de diálogo, un marco que utiliza Google para crear chatbots especializados. El sistema ha sido entrenado con trillones de palabras de Internet para imitar una conversación humana. En su conversación con el chatbot, Lemoine dijo que concluyó que la IA era un ser consciente que debería tener sus propios derechos. Dijo que el sentimiento no era científico, sino religioso: “¿Quién soy yo para decirle a Dios dónde puede y no puede poner almas?”. dijo en Twitter.
Los empleados de Google de Alphabet Inc. guardaron silencio en los canales internos además de Memegen, donde los empleados de Google compartieron algunos memes insípidos, según una persona familiarizada con el asunto. Pero durante el fin de semana y el lunes, los investigadores rechazaron la idea de que la IA era realmente sensible, diciendo que la evidencia solo indicaba un sistema altamente capaz de mimetismo humano, no la sensibilidad en sí. “Está imitando las percepciones o los sentimientos de los datos de entrenamiento que se le dieron, de manera inteligente y diseñada específicamente para parecer que entiende”, dijo Jana Eggers, directora ejecutiva de la startup de IA Nara Logics.
La arquitectura de LaMDA «simplemente no admite algunas capacidades clave de la conciencia similar a la humana», dijo Max Kreminski, investigador de la Universidad de California, Santa Cruz, que estudia los medios computacionales. Si LaMDA es como otros modelos de lenguaje grande, dijo, no aprendería de sus interacciones con los usuarios humanos porque «los pesos de la red neuronal del modelo implementado están congelados». Tampoco tendría otra forma de almacenamiento a largo plazo en la que pudiera escribir información, lo que significa que no sería capaz de «pensar» en segundo plano.
En una respuesta a las afirmaciones de Lemoine, Google dijo que LaMDA puede seguir las instrucciones y las preguntas principales, lo que le da la apariencia de poder comentar cualquier tema. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, dijo Chris Pappas, un portavoz de Google. «Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos conocimiento de que nadie más haya hecho afirmaciones tan amplias o antropomorfizado a LaMDA, como lo ha hecho Blake».
El debate sobre la sensibilidad en los robots se ha llevado a cabo junto con la representación de ciencia ficción en la cultura popular, en historias y películas con parejas románticas de IA o villanos de IA. Así que el debate tuvo un camino fácil hacia la corriente principal. “En lugar de discutir los daños de estas empresas”, como el sexismo, el racismo y la centralización del poder creado por estos sistemas de IA, todos “pasaron todo el fin de semana discutiendo sobre la sensibilidad”, dijo Timnit Gebru, ex codirector del grupo de IA ética de Google. en Twitter. “Misión de descarrilamiento cumplida”.
Los primeros chatbots de las décadas de 1960 y 1970, incluidos ELIZA y PARRY, generaron titulares por su capacidad para conversar con humanos. En años más recientes, el modelo de lenguaje GPT-3 de OpenAI, el laboratorio fundado por el CEO de Tesla, Elon Musk, y otros, ha demostrado capacidades aún más avanzadas, incluida la capacidad de leer y escribir. Pero desde una perspectiva científica, no hay evidencia de que la inteligencia o la conciencia humana estén integradas en estos sistemas, dijo Bart Selman, profesor de informática en la Universidad de Cornell que estudia inteligencia artificial. LaMDA, dijo, “es solo otro ejemplo en esta larga historia”.
De hecho, los sistemas de IA actualmente no razonan sobre los efectos de sus respuestas o comportamientos en las personas o la sociedad, dijo Mark Riedl, profesor e investigador del Instituto de Tecnología de Georgia. Y esa es una vulnerabilidad de la tecnología. “Un sistema de IA puede no ser tóxico o tener sesgos perjudiciales, pero aun así no entender que puede ser inapropiado hablar de suicidio o violencia en algunas circunstancias”, dijo Riedl. “La investigación aún es inmadura y está en curso, incluso cuando hay prisa por el despliegue”.
Las empresas de tecnología como Google y Meta Platforms Inc. también implementan IA para moderar el contenido en sus enormes plataformas; sin embargo, muchas publicaciones y lenguaje tóxico aún pueden colarse a través de sus sistemas automatizados. Para mitigar las deficiencias de esos sistemas, las empresas deben emplear cientos de miles de moderadores humanos para garantizar que el discurso de odio, la información errónea y el contenido extremista en estas plataformas estén debidamente etiquetados y moderados, e incluso entonces las empresas suelen ser deficientes.
El enfoque en la sensibilidad de la IA «oculta aún más» la existencia y, en algunos casos, las condiciones de trabajo supuestamente inhumanas de estos trabajadores, dijo Bender de la Universidad de Washington.
También ofusca la cadena de responsabilidad cuando los sistemas de IA cometen errores. En un error ahora famoso de su tecnología de inteligencia artificial, Google en 2015 emitió una disculpa pública después de que se descubrió que el servicio de fotos de la compañía estaba etiquetando erróneamente las fotos de un desarrollador de software negro y su amigo como «gorilas». Hasta tres años después, la empresa admitió que su solución no era una mejora del sistema de IA subyacente; en cambio, borró todos los resultados de los términos de búsqueda «gorila», «chimpancé» y «mono».
Poner énfasis en la sensibilidad de la IA le habría dado a Google el margen de maniobra para culpar del problema a la IA inteligente que toma esa decisión, dijo Bender. “La empresa podría decir, ‘Oh, el software cometió un error’”, dijo. “Pues no, su empresa creó ese software. Usted es responsable de ese error. Y el discurso sobre la sensibilidad lo enturbia de mala manera”.
? Oferta por tiempo limitado | Express Premium con ad-lite por solo Rs 2/día ?? Haga clic aquí para suscribirse ?
La IA no solo proporciona una forma para que los humanos renuncien a su responsabilidad de tomar decisiones justas ante una máquina, sino que a menudo simplemente replica los sesgos sistémicos de los datos en los que se entrena, dijo Laura Edelson, científica informática de la Universidad de Nueva York. En 2016, ProPublica publicó una amplia investigación sobre COMPAS, un algoritmo utilizado por jueces, oficiales de libertad condicional y libertad condicional para evaluar la probabilidad de que un acusado criminal vuelva a delinquir. La investigación encontró que el algoritmo predijo sistemáticamente que las personas negras tenían un «mayor riesgo» de cometer otros delitos, incluso si sus registros confirmaban que en realidad no lo hicieron. “Sistemas como ese lavado tecnológico nuestros sesgos sistémicos”, dijo Edelson. “Replican esos sesgos pero los colocan en la caja negra del ‘algoritmo’ que no puede ser cuestionado ni desafiado”.
Y, dijeron los investigadores, debido a que la tecnología LaMDA de Google no está abierta a investigadores externos, el público y otros científicos informáticos solo pueden responder a lo que les dice Google oa través de la información publicada por Lemoine.
“Debe ser accesible para los investigadores fuera de Google para avanzar en más investigaciones de maneras más diversas”, dijo Riedl. “Cuantas más voces, más diversidad de preguntas de investigación, más posibilidades de nuevos avances. Esto se suma a la importancia de la diversidad de experiencias raciales, sexuales y vividas, que actualmente faltan en muchas grandes empresas tecnológicas”.