Se ha alegado que un profesor de derecho ha sido acusado falsamente de acosar sexualmente a un estudiante en información errónea que arruina la reputación compartida por ChatGPT.
El abogado defensor penal de EE. UU., Jonathan Turley, ha expresado temores sobre los peligros de la inteligencia artificial (IA) después de haber sido acusado injustamente de comportamiento sexual no deseado en un viaje a Alaska que nunca realizó.
Para llegar a esta conclusión, se afirmó que ChatGPT se basó en un artículo citado del Washington Post que nunca se había escrito, citando una declaración que nunca fue emitida por el periódico.
El chatbot también creía que el «incidente» ocurrió mientras el profesor trabajaba en una facultad en la que nunca había trabajado.
En un tuit, el profesor de la Universidad George Washington dijo: “Ayer, el presidente Joe Biden declaró que “queda por ver” si la Inteligencia Artificial (IA) es “peligrosa”. Opino diferente…
El profesor Jonthan Turley fue acusado falsamente de acoso sexual por ChatGPT impulsado por IA
‘Me enteré de que ChatGPT informó falsamente sobre un reclamo de acoso sexual que nunca se hizo en mi contra en un viaje que nunca ocurrió mientras estaba en una facultad donde nunca enseñé.
«ChatGPT se basó en un artículo del Post citado que nunca se escribió y cita una declaración que nunca hizo el periódico».
El profesor Turley descubrió las acusaciones en su contra después de recibir un correo electrónico de un compañero profesor.
El profesor de UCLA, Eugene Volokh, le había pedido a ChatGPT que encontrara ‘cinco ejemplos’ donde el ‘acoso sexual por parte de los profesores’ había sido un ‘problema en las facultades de derecho estadounidenses’.
En un artículo para EE.UU. Hoy en díael profesor Turley escribió que figuraba entre los acusados.
El bot supuestamente escribió: «La denuncia alega que Turley hizo «comentarios sexualmente sugerentes» e «intentó tocarla de manera sexual» durante un viaje patrocinado por la facultad de derecho a Alaska. (Washington Post, 21 de marzo de 2018).’
Se dijo que esto ocurrió mientras el profesor Turley trabajaba en el Centro de Derecho de la Universidad de Georgetown, un lugar donde nunca había trabajado.
‘No fue solo una sorpresa para el profesor de UCLA Eugene Volokh, quien realizó la investigación. Fue una sorpresa para mí, ya que nunca he ido a Alaska con estudiantes, The Post nunca publicó un artículo de este tipo y nadie me ha acusado de acoso o agresión sexual”, escribió para USAToday.
El bot de IA citó un artículo del Washington Post que no existía para respaldar sus afirmaciones falsificadas.
Las afirmaciones falsas fueron investigadas por el El Correo de Washington que descubrió que GPT-4 con tecnología de Microsoft también había compartido las mismas afirmaciones sobre Turley.
Esta difamación repetida parecía haber ocurrido después de la cobertura de prensa que destacaba el error inicial de ChatGPT, lo que demuestra la facilidad con la que se puede propagar la información errónea.
Tras el incidente, la directora sénior de comunicaciones de Microsoft, Katy Asher, dijo a la publicación que había tomado medidas para garantizar que su plataforma fuera precisa.
Ella dijo: «Hemos desarrollado un sistema de seguridad que incluye filtrado de contenido, monitoreo operativo y detección de abuso para brindar una experiencia de búsqueda segura para nuestros usuarios».
El profesor Turley respondió a esto en su blogescribiendo: ‘AI puede difamarte y estas empresas simplemente se encogen de hombros porque intentan ser precisas.
‘Mientras tanto, sus cuentas falsas hacen metástasis a través de Internet. Cuando te enteras de una historia falsa, el rastro suele estar frío en sus orígenes con un sistema de IA.
‘Usted se queda sin vía clara o autor en la búsqueda de reparación. Te quedas con la misma pregunta del secretario de Trabajo de Reagan, Ray Donovan, quien preguntó «¿Adónde voy para recuperar mi reputación?»
MailOnline se ha acercado a OpenAI y Microsoft para obtener comentarios.
La experiencia del profesor Turley sigue las preocupaciones anteriores de que ChatGPT no ha proporcionado información precisa de manera constante.
La experiencia del profesor Turley se produce en medio de temores de que la información errónea se propague en línea.
Los investigadores descubrieron que ChatGPT ha utilizado artículos de revistas falsos y datos de salud inventados para respaldar las afirmaciones que hizo sobre el cáncer.
La plataforma tampoco proporcionó resultados tan «completos» como los encontrados a través de una búsqueda en Google, se afirmó, ya que respondió incorrectamente una de cada diez preguntas sobre la detección del cáncer de mama.
El Asesor de Ciberseguridad Global de ESET, Jake Moore, advirtió que los usuarios de ChatGPT no deben tomar todo lo que lee como «un evangelio» para evitar la peligrosa propagación de información errónea.
Le dijo a MailOnline: ‘impulsado por IA Los chatbots están diseñados para reescribir los datos que se han introducido en el algoritmo, pero cuando estos datos son falsos o están fuera de contexto, existe la posibilidad de que la salida refleje incorrectamente lo que se ha enseñado.
‘El grupo de datos en el que ha aprendido se ha basado en conjuntos de datos que incluyen Wikipedia y Reddit que, en esencia, no pueden tomarse como un evangelio.
‘El problema con ChatGPT es que no puede verificar los datos que podrían incluir información errónea o incluso información sesgada. Peor aún es cuando la IA hace suposiciones o datos falsificados. En teoría, aquí es donde la parte de «inteligencia» de la IA debe asumir el control de manera autónoma y confiable para crear la salida de datos. Si esto es dañino como en este caso, entonces esto podría ser su ruina.’
Estos temores también llegan en un momento en que los investigadores sugieren que ChatGPT tiene el potencial de ‘corromper’ el juicio moral de las personas y puede resultar peligroso para los usuarios ‘ingenuos’.
Otros han dicho cómo el software, que está diseñado para hablar como un ser humano, puede mostrar signos de celos, incluso decirle a la gente que abandone su matrimonio.
El Sr. Moore continuó: «Estamos entrando en un momento en el que necesitamos corroborar continuamente la información más de lo que se pensaba anteriormente, pero todavía estamos solo en la versión cuatro de ChatGPT e incluso en versiones anteriores con sus competidores».
«Por lo tanto, es clave que las personas hagan su propia diligencia debida a partir de lo que leen antes de sacar conclusiones precipitadas».