Inicio Ciencia ¿Puedes detectar la falsificación? Advertencia: los estafadores utilizan imágenes generadas por ordenador...

¿Puedes detectar la falsificación? Advertencia: los estafadores utilizan imágenes generadas por ordenador y voces de médicos de televisión, entre ellos Hilary Jones de GMB y el difunto doctor Michael Mosley, para promocionar estafas sanitarias

0

Es casi demasiado bueno para ser verdad. Un médico que has visto en televisión durante décadas hablándote de un nuevo producto revolucionario en las redes sociales que las grandes compañías farmacéuticas rezan para que no descubras y que podría curar tus dolencias.

Pero no todo es lo que parece. Los estafadores están utilizando tecnología de inteligencia artificial para falsificar videos de médicos famosos de la televisión como Hilary Jones, Michael Mosley y Rangan Chatterjee para promocionar sus productos al público desprevenido en las redes sociales.

Un nuevo informe, publicado en la prestigiosa revista Revista Médica Británica (BMJ) advirtió sobre el aumento creciente de los llamados «deepfakes», ya que las investigaciones sugieren que hasta la mitad de nosotros ya no podemos distinguirlos de los reales.

Deepfaking utiliza inteligencia artificial para mapear la imagen digital de un ser humano real en un video de un cuerpo que no es el suyo.

Se han utilizado para crear vídeos de políticos para hacerlos parecer ineptos e incluso para robos corporativos y ahora se están utilizando para venderle «curas» dudosas.

Algunos de los clips descubiertos en la investigación incluyen los del difunto Dr. Michael Mosley, quien murió el mes pasado en Grecia, aparentemente promocionando una cura para la diabetes en Facebook.

Otro video presenta a la Dra. Hilary Jones con voz robótica en el programa Lorraine de ITV, quien aparentemente afirma que un medicamento para la presión arterial cura los problemas en ocho de cada diez casos.

Los videos son falsos y no cuentan con el respaldo de nadie, cuyas apariencias y voces han sido apropiadas por estafadores para vender medicamentos falsificados de mala calidad.

Los estafadores utilizan cada vez más la tecnología de inteligencia artificial para falsificar videos de médicos famosos de la televisión como Hilary Jones, Michael Moseley y Rangan Chatterjee para promocionar sus productos ante miembros desprevenidos del público en las redes sociales.

Los estafadores utilizan cada vez más la tecnología de inteligencia artificial para falsificar videos de médicos famosos de la televisión como Hilary Jones, Michael Moseley y Rangan Chatterjee para promocionar sus productos ante miembros desprevenidos del público en las redes sociales.

Un clip modificado del Dr. Hilary Jones que aparece en Lorraine parece mostrarlo defendiendo un nuevo tipo de medicamento para la presión arterial, pero el clip es completamente falso, hecho con inteligencia artificial.

El Dr. Jones es sólo un médico de televisión que se ha sumado a esta tendencia: a principios de este año se difundió en Facebook un video deepfake en el que aparece promocionando una cura para la presión arterial.

Y como el propio Dr. Jones sabe, está lejos de ser el único ejemplo.

«Algunos de los productos que actualmente se promocionan utilizando mi nombre incluyen aquellos que afirman solucionar la presión arterial y la diabetes, junto con gomitas de cáñamo con nombres como Via Hemp Gummies, Bouncy Nutrition y Eco Health», dijo.

El gurú de la salud por correo, el Dr. Mosley, quien murió el mes pasado en Grecia, y el Dr. Chatterjee, famoso por su programa Doctor In The House, también han sido utilizados para generar dichos clips.

Si bien la tecnología utilizada para crear deepfakes existe desde hace años, las primeras versiones tenían fallas y a menudo cometían errores con los oídos, los dedos o no lograban hacer coincidir el audio con los movimientos de los labios del sujeto, lo que alertaba a las personas sobre su naturaleza fraudulenta.

Pero desde entonces se han logrado avances enormes y, aunque las investigaciones son limitadas, los datos sugieren que hasta la mitad de las personas ahora tienen dificultades para distinguirlos de los auténticos.

El médico retirado John Cormack, que trabajó con el BMJ en el informe, describió a los estafadores que se aprovechan de la reputación de médicos respetados para promocionar sus productos como si estuvieran «imprimiendo dinero».

«El resultado final es que es mucho más barato gastar dinero en hacer vídeos que en investigar, crear nuevos productos y lanzarlos al mercado de la forma convencional», dijo.

Los reguladores también parecen impotentes para detener la tendencia.

Los médicos en ejercicio en el Reino Unido deben estar registrados en el Consejo Médico General, que, si se descubre que un médico ha incumplido los estándares esperados de los profesionales médicos, puede suspenderlo de su trabajo o incluso expulsarlo por completo.

La voz y la imagen del difunto Dr. Michael Mosley han sido cruelmente explotadas por estafadores que intentan vender medicamentos falsos para la diabetes a través de videos deepfake.

En este ejemplo, se utiliza una versión falsa del Dr. Mosley para promocionar un medicamento cuestionable para personas con diabetes.

El Dr. Mosley, generado por IA, incluso aboga por que las personas «se olviden de la insulina» u otras formas estándar de tratamiento de la diabetes.

Pero no tienen poder para actuar sobre videos falsos de médicos y, si bien hacerse pasar por un médico es un delito en el Reino Unido, el turbio mundo de Internet hace que rastrear a quién pedir cuentas sea casi imposible, especialmente si residen en el extranjero.

En cambio, médicos como el Dr. Jones dicen que son los gigantes de las redes sociales que alojan este contenido y, en última instancia, ganan dinero con ello, los que deben tomar medidas.

«Depende de empresas como Meta, propietaria de Facebook e Instagram, evitar que esto suceda», dijo.

«Pero no les interesa hacerlo mientras estén ganando dinero».

En respuesta al informe del BMJ, un portavoz de Meta dijo: Investigaremos los ejemplos destacados por el BMJ.

‘No permitimos contenido que engañe intencionalmente o busque defraudar a otros, y trabajamos constantemente para mejorar la detección y la aplicación de la ley.

‘Alentamos a cualquiera que vea contenido que pueda violar nuestras políticas a que lo denuncie para que podamos investigar y actuar’.

En estos momentos, médicos como el Dr. Jones tienen que tomar el asunto en sus propias manos.

El Dr. Jones, un invitado frecuente en programas como Lorraine, emplea una empresa para rastrear deepfakes que lo involucran y tratar de purgarlos de Internet.

Pero añadió que la magnitud del problema sólo parece estar empeorando.

«Ha habido un gran aumento en este tipo de actividad», dijo.

«Incluso si los eliminan, aparecen al día siguiente con un nombre diferente».

El informe concluye diciendo que lo que hace que los deepfakes sean tan insidiosos es la forma en que juegan con la confianza de las personas, aprovechando un rostro familiar que ha ofrecido buenos consejos de salud, a veces transformadores, en el pasado para estafar a pacientes preocupados.

El Dr. Rangan Chatterjee, del documental de la BBC Doctor In The House, también se ha visto involucrado en la tendencia.

Fuera del mundo de la medicina, la imagen del experto en presupuestos Martin Lewis ha sido utilizada por estafadores para promover inversiones dudosas, lo que llevó al propio Lewis a decirle a la gente que no se dejara engañar.

Se recomienda a las personas que vean un video que sospechen que es un deepfake que primero lo examinen con atención para evitar situaciones como «el niño que gritó lobo».

Si todavía tienen sospechas, intenten comunicarse de forma independiente con la persona que supuestamente aparece en el video a través de una cuenta verificada, por ejemplo.

Si aún tiene sospechas, considere dejar un comentario cuestionando su veracidad para que, con suerte, otros también den ese paso adicional de análisis.

Las personas también pueden usar las herramientas de denuncia integradas en las redes sociales para marcar tanto el video como a la persona que lo publicó en un intento de lograr que lo eliminen.



Fuente

Salir de la versión móvil