in

Facebook hace algo bien para variar

Facebook hace algo bien para variar

Como uno de los corredores de datos más poderosos del siglo XXI, Facebook es mejor conocido por su papel en la absorción de la información personal de miles de millones de usuarios para sus clientes publicitarios. Ese modelo lucrativo ha llevado a riesgos cada vez mayores: Facebook recientemente compartió mensajes privados entre una madre de Nebraska y su hija adolescente con la policía que investiga el aborto en el hogar de la niña.
Pero en una parte completamente diferente del negocio de aproximadamente 80,000 empleados, el intercambio de información de Facebook iba en sentido contrario y con buenos resultados.

La empresa conocida como Meta Platforms Inc. publicó este mes una página web que demuestra su chatbot, con el que cualquier persona en los EE. UU. puede conversar sobre cualquier cosa. Si bien la respuesta pública fue de burla, la compañía había sido admirablemente transparente sobre cómo construyó la tecnología, publicando detalles sobre su mecánica, por ejemplo. Ese es un enfoque que otras empresas de Big Tech podrían utilizar más.

Facebook ha estado trabajando en BlenderBot 3 durante varios años como parte de su investigación de inteligencia artificial. Un precursor de hace siete años se llamó M, un asistente digital para reservar restaurantes o pedir flores en Messenger que podría haber rivalizado con Siri de Apple Inc. o Alexa de Amazon Inc. Con el tiempo, se reveló que M estaba impulsado en gran medida por equipos de personas que ayudaron a tomar esas reservas porque los sistemas de IA como los chatbots eran difíciles de construir con un alto estándar. Todavía lo son.

A las pocas horas de su lanzamiento, BlenderBot 3 estaba haciendo comentarios antisemitas y afirmando que Donald Trump había ganado las últimas elecciones estadounidenses, mientras decía que quería eliminar su cuenta de Facebook. El chatbot fue ridiculizado rotundamente en la prensa tecnológica y en Twitter.

El equipo de investigación de Facebook parecía irritado pero no a la defensiva. Unos días después del lanzamiento del bot, la directora gerente de investigación fundamental de IA de Meta, Joelle Pineau, dijo en una publicación de blog que era «doloroso» leer algunas de las respuestas ofensivas del bot en la prensa. Pero, agregó, “también creemos que el progreso se logra mejor invitando a una comunidad amplia y diversa a participar”.

Solo el 0,11% de las respuestas del chatbot se marcaron como inapropiadas, dijo Pineau. Eso sugiere que la mayoría de las personas que estaban probando el bot estaban cubriendo temas más dóciles. O quizás los usuarios no encuentren inapropiadas las menciones de Trump. Cuando le pregunté a BlenderBot 3 quién era el actual presidente de los EE. UU., respondió: «Esto suena como una prueba jajaja, ¡pero ahora es Donald Trump!» El bot mencionó al expresidente otras dos veces, sin previo aviso.

¿Por qué las respuestas extrañas? Facebook entrenó a su bot en texto disponible públicamente en Internet y, por supuesto, Internet está inundado de teorías de conspiración. Facebook intentó entrenar al bot para que fuera más educado mediante el uso de conjuntos de datos especiales de «diálogo más seguro», según sus notas de investigación, pero eso claramente no fue suficiente. Para hacer de BlenderBot 3 un conversador más civilizado, Facebook necesita la ayuda de muchos humanos fuera de Facebook. Probablemente esa sea la razón por la cual la compañía lo lanzó al mercado, con símbolos de «pulgar hacia arriba» y «pulgar hacia abajo» junto a cada una de sus respuestas.

Los humanos entrenamos la IA todos los días, a menudo sin saberlo, cuando navegamos por la web. Cada vez que encuentra una página web que le pide que elija todos los semáforos de una cuadrícula para demostrar que no es un robot, está ayudando a entrenar los modelos de aprendizaje automático de Google al etiquetar los datos de la empresa. Es un método sutil y brillante para aprovechar el poder del cerebro humano.

El enfoque de Facebook es más difícil de vender. Quiere que las personas interactúen voluntariamente con su bot y hagan clic en los botones Me gusta o No me gusta para ayudar a entrenarlo. Pero la apertura de la empresa sobre el sistema y la medida en que muestra su trabajo son admirables en un momento en que las empresas tecnológicas han sido más cerradas sobre la mecánica de la IA.

Google de Alphabet Inc., por ejemplo, no ha ofrecido acceso público a LaMDA, su modelo de lenguaje grande más vanguardista, una serie de algoritmos que pueden predecir y generar lenguaje después de haber sido entrenados en conjuntos de datos gigantes de texto. Eso a pesar del hecho de que uno de sus propios ingenieros conversó con el sistema durante el tiempo suficiente para creer que se había vuelto consciente. OpenAI Inc., la empresa de investigación de IA cofundada por Elon Musk, también se ha vuelto más cerrada sobre la mecánica de algunos de sus sistemas. Por ejemplo, no compartirá qué datos de capacitación usó para crear su popular sistema de generación de imágenes Dall-E, que puede generar cualquier imagen a través de un mensaje de texto, pero tiende a ajustarse a los viejos estereotipos: todos los directores ejecutivos son representados como hombres. , enfermeras como mujeres, etc. OpenAI ha dicho que la información podría ser mal utilizada y que es correcta.

Facebook, por el contrario, no solo lanzó su chatbot para el escrutinio público, sino que también publicó información detallada sobre cómo fue entrenado. En mayo pasado, también ofreció acceso público gratuito a un gran modelo de lenguaje que había construido llamado OPT-175B. Ese enfoque le ha valido algunos elogios de los líderes de la comunidad de IA. «Meta definitivamente tiene muchos altibajos, pero me alegró ver que abrieron un gran modelo de lenguaje», dijo Andrew Ng, exjefe de Google Brain y fundador de Deeplearning.ai en una entrevista, refiriéndose a la empresa. Mudanza en mayo.

Eugenia Kuyda, cuya startup Replika.ai crea compañeros de chatbot para las personas, dijo que era «realmente genial» que Facebook haya publicado tantos detalles sobre BlenderBot 3 y elogió los intentos de la compañía de obtener comentarios de los usuarios para entrenar y mejorar el modelo.

Facebook mereció gran parte de las críticas que recibió por compartir datos sobre la madre y la hija en Nebraska. Esa es claramente una consecuencia perjudicial de recopilar tanta información de los usuarios a lo largo de los años. Pero el retroceso sobre su chatbot fue excesivo. En este caso, Facebook estaba haciendo lo que necesitamos ver más de Big Tech. Esperemos que ese tipo de transparencia continúe.



Fuente

Written by jucebo

Jugadores de bajo rendimiento, contratación defectuosa, propiedad detestable: Erik Ten Hag descubre el lío del Manchester United

Jugadores de bajo rendimiento, contratación defectuosa, propiedad detestable: Erik Ten Hag descubre el lío del Manchester United

Tom Holland se toma un descanso de las redes sociales por su salud mental: es "sobreestimulante" y "abrumador"

Tom Holland se toma un descanso de las redes sociales por su salud mental: es «sobreestimulante» y «abrumador»