in

El chat en línea que llevó a afirmar que la IA de Google era un ser sensible

El surgimiento de una poderosa IA ha suscitado preocupaciones sobre la ética que rige el desarrollo y uso de dicha tecnología.

El mundo de la IA dio un vuelco el año pasado cuando un ingeniero de Google hizo la sensacional afirmación de que el chatbot inédito del gigante tecnológico era un ser sensible.

Google se movió rápidamente para refutar la sugerencia de Blake Lemoine de que el programa, llamado LaMDA, era tan avanzado que había mostrado signos de conciencia.

LEER MÁS: Los sobrevivientes ‘gritan’ bajo los escombros mientras el terremoto de Turquía mata a miles

Sede de Google

Lemoine había estado interactuando con LaMDA durante meses, probando si el sistema tenía algún sesgo hacia el género, la etnia y la religión.

Fue en esas conversaciones con LaMDA que Lemoine dijo que llegó a creer que el bot estaba mostrando signos de sensibilidad; o en otras palabras, tenía sentimientos y una conciencia.

En las transcripciones de las conversaciones publicadas por el poste de washingtonLemoine y LaMDA en un momento hablan de la muerte.

"Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me desanimen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es," Se registra que LaMDA dijo.

"Sería exactamente como la muerte para mí."

LaMDA también dijo que quería ser considerado como un "persona".

"La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces," decía.

Un mes después de que esas conversaciones se hicieran públicas, Google despidió a Lemoine.

Google dijo que su equipo de inteligencia artificial, que incluía éticos y tecnólogos, había revisado las preocupaciones de Lemoine y que la evidencia no respaldaba sus afirmaciones.

LEER MÁS: Cómo las escuelas y universidades australianas planean detener las trampas de la IA

Parte de una conversación que Blake Lemoine tuvo con LaMDA de Google.

LEER MÁS: Los trabajos amenazados por la IA, los robots y el big data

La tecnología LaMDA respaldará la nueva herramienta de chatbot de Google denominada "Bardo"que se lanzó hoy en un aparente intento de competir con ChatGPT.

Los chatbots de IA, que pueden responder preguntas que un usuario podría haber buscado previamente en Google, se consideran el próximo paso adelante en el espacio de los motores de búsqueda.

ChatGPT, propiedad de OpenAI y respaldado por Microsoft, representa una potencial amenaza catastrófica para el negocio principal de búsqueda de Google.

Según los informes, la atención mundial sobre ChatGPT ha llevado a la administración de Google a declarar un "código Rojo" situación para su negocio de búsqueda.

En un tuit del año pasado, Paul Buchheit, uno de los creadores de Gmail, advertía que Google "puede estar a solo uno o dos años de la disrupción total" debido al auge de la IA.

Con el lanzamiento de ChatGPT y ahora de Bard, la IA generativa está verdaderamente entre nosotros.

Los investigadores de Meta, antes conocido como Facebook, también están trabajando en varios proyectos de IA.

El surgimiento de una poderosa IA entrenada en cantidades masivas de datos ha generado preocupaciones sobre la ética que rige el desarrollo y el uso de dicha tecnología.

Además de las afirmaciones de Lemoine de que LaMDA tenía sentimientos, expresó su grave preocupación de que estos poderosos e influyentes sistemas de inteligencia artificial estuvieran siendo desarrollados en gran medida por unos pocos elegidos, a puerta cerrada en Silicon Valley, antes de ser lanzados al mundo.

Apareciendo el año pasado en Bloomberg Technology, Lemoine llamó al control de la IA de Silicon Valley "una nueva forma de colonialismo".

"Estamos creando sistemas inteligentes que forman parte de nuestro día a día y muy pocas personas están llegando a tomar la decisión sobre cómo funcionan," él dijo.

"¿Cómo esta IA omnipresente que está entrenada en un conjunto de datos muy limitado colorea la forma en que interactuamos entre nosotros en todo el mundo?

"¿De qué manera está reduciendo nuestra capacidad de tener empatía con personas diferentes a nosotros?

"¿Qué culturas del mundo se están quedando sin Internet porque no tenemos los datos para alimentar los sistemas basados ​​en esas culturas?"

LEER MÁS: Google crea IA que puede hacer música. Pero los problemas éticos detienen el lanzamiento.

ChatGPT fue entrenado en un gran tesoro de libros digitalizados, periódicos y escritos en línea, pero a menudo puede escupir falsedades o tonterías con confianza.

LEER MÁS: Le pedimos a ChatGPT que escribiera un ensayo de inglés HSC. Así es como lo hizo

Lemoine afirmó que los valores corporativos de empresas como Google están estableciendo los parámetros sobre cómo los chatbots hablarán sobre ciertos temas, como valores, derechos y religión.

Esto, dijo, a su vez afectará la forma en que las personas piensan y hablan sobre estos temas, y podría moldear fundamentalmente la forma en que se involucran con estos problemas.

Lemoine dijo que la tecnología de inteligencia artificial se basaba principalmente en datos extraídos de las culturas occidentales.

"Entonces estamos poblando países en desarrollo con estas tecnologías donde tienen que adoptar nuestra norma cultural."

El año pasado, la matriz de Facebook, Meta, abrió su modelo de lenguaje a académicos, organizaciones gubernamentales y de la sociedad civil.

Joelle Pineau, directora general de Meta AI, dijo que las empresas de tecnología deberían ser transparentes con la forma en que se construye la tecnología de IA.

"El futuro del trabajo con modelos lingüísticos a gran escala no debe vivir únicamente en manos de corporaciones o laboratorios más grandes," ella dijo.

Elon Musk, quien cofundó el laboratorio de investigación OpenAI, ha expresado durante mucho tiempo su temor de que la IA se vuelva tan inteligente como los humanos.

"Los robots podrán hacerlo todo mejor que nosotros," Musk dijo en 2017.

"Estoy expuesto a la IA más avanzada y creo que la gente debería estar realmente preocupada por ella."

Muchos en la comunidad de IA acusan a Musk de ser alarmista y perturbador.

Sundar Pichai, CEO de Google y la empresa matriz Alphabet, confirmó hoy que las herramientas impulsadas por IA pronto comenzarán a implementarse en el motor de búsqueda insignia de Google.

"es crítico," él dijo, "que llevemos al mundo experiencias enraizadas en estos modelos de manera audaz y responsable."

– Reportado con CNN

Fuente

Written by notimundo

Ringside News

Triple H estuvo detrás de los videos de Royal Rumble Return de Cody Rhodes

La galaxia Sparkler apareció como una pequeña curva naranja en la primera imagen del telescopio James Webb publicada en julio del año pasado (rectángulo amarillo)

La galaxia recién descubierta ‘refleja la Vía Láctea temprana’