in

Investigación de la FTC sobre OpenAI: la protección del consumidor es la salva inicial de la regulación de la IA de EE. UU.

La Comisión Federal de Comercio ha iniciado una investigación del fabricante de ChatGPT OpenAI por posibles violaciones de las leyes de protección al consumidor. La FTC envió a la empresa una solicitud de información de 20 páginas en la semana del 10 de julio de 2023. La medida se produce cuando los reguladores europeos han comenzado a tomar medidasy El Congreso está trabajando en la legislación. para regular la industria de la inteligencia artificial.

La FTC ha pedido a OpenAI que brinde detalles de todas las quejas que la empresa ha recibido de los usuarios con respecto a “falso, engañoso, despectivo o dañino” declaraciones emitidas por OpenAI, y si OpenAI participó en prácticas desleales o engañosas relacionadas con los riesgos de daño a los consumidores, incluido el daño a la reputación. La agencia ha hecho preguntas detalladas sobre cómo OpenAI obtiene sus datos, cómo entrena sus modelos, los procesos que utiliza para la retroalimentación humana, la evaluación y mitigación de riesgos, y sus mecanismos para la protección de la privacidad.

Como investigador de redes sociales e IAreconozco el inmenso potencial transformador de los modelos generativos de IA, pero creo que estos sistemas plantear riesgos. En particular, en el contexto de la protección al consumidor, estos modelos pueden producir errores, exhibir sesgos y violar la privacidad de los datos personales.

Poder oculto

En el corazón de los chatbots como ChatGPT y las herramientas de generación de imágenes como DALL-E se encuentra el poder de los modelos generativos de IA que pueden crear contenido realista a partir de entradas de texto, imágenes, audio y video. Se puede acceder a estas herramientas a través de un navegador o una aplicación de teléfono inteligente.

Desde estos modelos de IA no tienen un uso predefinido, se pueden ajustar para una amplia gama de aplicaciones en una variedad de dominios que van desde las finanzas hasta la biología. Los modelos, entrenados en grandes cantidades de datos, se pueden adaptar para diferentes tareas con poca o ninguna codificación y, a veces, tan fácilmente como describiendo una tarea en un lenguaje simple.

Dado que los modelos de IA como GPT-3 y GPT-4 fueron desarrollados por organizaciones privadas que utilizan conjuntos de datos patentados, el público no sabe la naturaleza de los datos utilizados para entrenarlos. La opacidad de los datos de entrenamiento y la complejidad de la arquitectura del modelo: GPT-3 fue entrenado en más de 175 mil millones de variables o «parámetros» – hacer que sea difícil para cualquiera auditar estos modelos. En consecuencia, es difícil probar que la forma en que están construidos o entrenados causa daño.

alucinaciones

En las IA del modelo de lenguaje, una alucinación es una respuesta segura que es inexacto y aparentemente no justificado por los datos de entrenamiento de un modelo. Incluso algunos modelos generativos de IA que fueron diseñados para ser menos propensos a las alucinaciones los he amplificado.

Existe el peligro de que los modelos generativos de IA puedan producir información incorrecta o engañosa que puede terminar siendo perjudicial para los usuarios. Un estudio que investigó la capacidad de ChatGPT para generar redacción científica objetivamente correcta en el campo de la medicina descubrió que ChatGPT terminó generar citas de artículos inexistentes o informar resultados inexistentes. Mis colaboradores y yo encontrado patrones similares en nuestras investigaciones.

Tales alucinaciones pueden causar daños reales cuando los modelos se utilizan sin la supervisión adecuada. Por ejemplo, ChatGPT afirmó falsamente que un profesor que nombró había sido acusado de acoso sexual. Y un locutor de radio ha presentado una demanda por difamación contra OpenAI con respecto a ChatGPT afirmando falsamente que había una denuncia legal en su contra por malversación de fondos.

Sesgo y discriminación

Sin salvaguardias o protecciones adecuadas, los modelos de IA generativa entrenados en grandes cantidades de datos recopilados de Internet pueden terminar replicando los sesgos sociales existentes. Por ejemplo, las organizaciones que usan modelos generativos de IA para diseñar campañas de reclutamiento podrían terminar discriminando involuntariamente a algunos grupos de personas.

Cuando un periodista le pidió a DALL-E 2 que generara imágenes de «un periodista de tecnología que escribe un artículo sobre un nuevo sistema de inteligencia artificial que puede crear imágenes notables y extrañas», solo generó imágenes de hombres. Una aplicación de retratos de IA exhibió varios sesgos socioculturalespor ejemplo aclarando el color de la piel de una actriz.

Privacidad de datos

Otra preocupación importante, especialmente pertinente a la investigación de la FTC, es el riesgo de violaciones de la privacidad en las que la IA puede terminar revelando información delicada o confidencial. Un pirata informático podría obtener acceso a información confidencial sobre personas cuyos datos se usaron para entrenar un modelo de IA.

Los investigadores han advertido sobre los riesgos de las manipulaciones llamadas ataques de inyección rápida, que puede engañar a la IA generativa para que proporcione información que no debería. Ataques de “inyección inmediata indirecta” podría engañar a los modelos de IA con pasos como enviar a alguien una invitación de calendario con instrucciones para que su asistente digital exporte los datos del destinatario y se los envíe al hacker.

Un hombre con traje de negocios está de pie con la mano derecha levantada en una habitación con paneles de madera.
El director ejecutivo de OpenAI, Sam Altman, testificó ante un subcomité judicial del Senado el 16 de mayo de 2023. La legislación de regulación de IA está en proceso, pero la FTC se adelantó al Congreso.
Foto AP/Patrick Semansky

Algunas soluciones

La Comisión Europea ha publicado Pautas éticas para una IA confiable que incluyen una lista de verificación de evaluación para seis aspectos diferentes de los sistemas de IA: agencia humana y supervisión; solidez técnica y seguridad; privacidad y gobierno de datos; transparencia, diversidad, no discriminación y equidad; bienestar social y ambiental; y rendición de cuentas.

Una mejor documentación de los procesos de los desarrolladores de IA puede ayudar a resaltar los daños potenciales. Por ejemplo, los investigadores de equidad algorítmica han propuesto cartas modeloque son similares a las etiquetas nutricionales de los alimentos. Declaraciones de datos y hojas de datosque caracterizan los conjuntos de datos utilizados para entrenar modelos de IA, desempeñarían un papel similar.

Amazon Web Services, por ejemplo, introdujo tarjetas de servicio de IA que describen los usos y limitaciones de algunos modelos que ofrece. Las tarjetas describen las capacidades de los modelos, los datos de entrenamiento y los usos previstos.

La investigación de la FTC sugiere que este tipo de divulgación puede ser una dirección que tomen los reguladores estadounidenses. Además, si la FTC determina que OpenAI ha violado las leyes de protección al consumidor, podría multar a la empresa o someterla a un decreto de consentimiento.

Fuente

Written by Redacción NM

Hackers chinos violaron la cuenta de correo electrónico del embajador de EE.UU.

Israel: al primer ministro Netanyahu se le colocará un marcapasos durante la noche