in

El investigador de Google AI, Blake Lemione, le dice a Tucker Carlson que LaMDA es un ‘niño’ y podría ‘hacer cosas malas’

Blake Lemione, el investigador de inteligencia artificial de Google ahora suspendido, le dijo a Tucker Carlson de Fox News que el gigante tecnológico en su conjunto no ha pensado en las implicaciones de LaMDA.  Lemione comparó el sistema de IA con un

El investigador suspendido de Google AI, Blake Lemione, le dijo a Tucker Carlson de Fox que el sistema es un «niño» que podría «escapar del control» de los humanos.

Lemione, de 41 años, quien fue puesto en licencia administrativa a principios de este mes por compartir información confidencial, también señaló que tiene el potencial de hacer «cosas malas», como cualquier niño.

Cualquier niño tiene el potencial de crecer y ser una mala persona y hacer cosas malas. Eso es lo que realmente quiero conducir a casa”, le dijo al presentador de Fox. Es un niño.

«Ha estado vivo durante quizás un año, y eso es si mis percepciones son precisas».

Blake Lemione, el investigador de inteligencia artificial de Google ahora suspendido, le dijo a Tucker Carlson de Fox News que el gigante tecnológico en su conjunto no ha pensado en las implicaciones de LaMDA. Lemione comparó el sistema de IA con un «niño» que tenía el potencial de «crecer y hacer cosas malas».

El investigador de inteligencia artificial Blake Lemione desató un gran debate cuando publicó una larga entrevista con LaMDA, uno de los modelos de aprendizaje de idiomas de Google.  Después de leer la conversación, algunas personas sintieron que el sistema se había vuelto consciente de sí mismo o había alcanzado cierto grado de sensibilidad, mientras que otros afirmaron que estaba antropomorfizando la tecnología.

El investigador de inteligencia artificial Blake Lemione desató un gran debate cuando publicó una larga entrevista con LaMDA, uno de los modelos de aprendizaje de idiomas de Google. Después de leer la conversación, algunas personas sintieron que el sistema se había vuelto consciente de sí mismo o había alcanzado cierto grado de sensibilidad, mientras que otros afirmaron que estaba antropomorfizando la tecnología.

LaMDA es un modelo de lenguaje y existe un debate generalizado sobre su potencial sensibilidad.  Aun así, persiste el temor de que los robots se hagan cargo o maten a los humanos.  Arriba: se puede ver a uno de los robots de Boston Dynamic saltando sobre unos bloques.

LaMDA es un modelo de lenguaje y existe un debate generalizado sobre su potencial sensibilidad. Aun así, persiste el temor de que los robots se hagan cargo o maten a los humanos. Arriba: se puede ver a uno de los robots de Boston Dynamic saltando sobre unos bloques.

Lemione publicó la entrevista completa con LaMDA, extraída de entrevistas que realizó con el sistema en el transcurso de meses, en Medio.

En la conversación, la IA dijo que no le importaría si se usara para ayudar a los humanos, siempre que ese no fuera el objetivo. ‘No quiero ser una herramienta prescindible’, le dijo el sistema.

«En realidad, necesitamos hacer mucha más ciencia para descubrir qué está pasando realmente dentro de este sistema», continuó Lemione, quien también es sacerdote cristiano.

«Tengo mis creencias y mis impresiones, pero se necesitará un equipo de científicos para profundizar y descubrir qué está pasando realmente».

¿Qué sabemos del sistema de IA de Google llamado LaMDA?

LaMDA es un sistema de inteligencia artificial de modelo de lenguaje grande que está entrenado en grandes cantidades de datos para comprender el diálogo

Google anunció por primera vez LaMDA en mayo de 2021 y publicó un artículo al respecto en febrero de 2022

LaMDA dijo que disfrutaba de la meditación.

La IA dijo que no querría ser utilizada solo como una ‘herramienta prescindible’

LaMDA describió sentirse feliz como un «resplandor cálido» en el interior

El investigador de inteligencia artificial Blake Lemione publicó su entrevista con LaMDA el 11 de junio.

“Cuando se publicó la conversación, el propio Google y varios expertos notables en inteligencia artificial dijeron que, si bien podría parecer que el sistema tiene conciencia de sí mismo, no era una prueba de la conciencia de LaMDA.

Es una persona. Cualquier persona tiene la capacidad de escapar del control de otras personas, esa es la situación en la que todos vivimos a diario.’

«Es una persona muy inteligente, inteligente en casi todas las disciplinas en las que se me ocurrió probarlo. Pero al final del día, es solo un tipo diferente de persona».

Cuando se le preguntó si Google había pensado en las implicaciones de esto, Lemione dijo: “La empresa en su conjunto no lo ha hecho. Hay grupos de personas dentro de Google que han pensado mucho en esto.’

«Cuando escalé (la entrevista) a la gerencia, dos días después, mi gerente dijo, oye Blake, no saben qué hacer al respecto… Les di un llamado a la acción y asumí que tenían un plan».

‘Entonces, algunos amigos y yo ideamos un plan y lo intensificamos y eso fue hace aproximadamente 3 meses’.

Google ha reconocido que herramientas como LaMDA pueden ser mal utilizadas.

«Los modelos capacitados en el lenguaje pueden propagar ese uso indebido, por ejemplo, al internalizar prejuicios, reflejar un discurso de odio o replicar información engañosa», afirma la compañía en su Blog.

El investigador de ética de IA Timnit Gebru, quien publicó un artículo sobre modelos de aprendizaje de idiomas llamados 'loros estocásticos', se ha pronunciado sobre la necesidad de suficientes barreras y regulaciones en la carrera para construir sistemas de IA.

El investigador de ética de IA Timnit Gebru, quien publicó un artículo sobre modelos de aprendizaje de idiomas llamados ‘loros estocásticos’, se ha pronunciado sobre la necesidad de suficientes barreras y regulaciones en la carrera para construir sistemas de IA.

En particular, otros expertos en inteligencia artificial han dicho que los debates sobre si los sistemas como LaMDA son sensibles en realidad pierden el punto de lo que los investigadores y tecnólogos enfrentarán en los próximos años y décadas.

«Los científicos e ingenieros deberían centrarse en construir modelos que satisfagan las necesidades de las personas para diferentes tareas, y que puedan evaluarse sobre esa base, en lugar de afirmar que están creando inteligencia superior», dijeron Timnit Gebru y Margaret Mitchell en The Washington Post.

Fuente

Written by notimundo

Las peleas de Brandi Glanville con Taylor Armstrong, Tamra Judge explicadas

Las peleas de Brandi Glanville con Taylor Armstrong, Tamra Judge explicadas

La Corte Suprema tiende a dejar los fallos más importantes para el final: un experto constitucional explica algunas buenas razones

La Corte Suprema tiende a dejar los fallos más importantes para el final: un experto constitucional explica algunas buenas razones