in

Deep Fake video de Biden en drag promocionando Bud Light se vuelve viral, mientras los expertos advierten sobre los riesgos de la tecnología

Una falsificación profunda de Biden antes del juego en drag, publicado por @drunkamerica en Instagram, recibió 223,107 me gusta en los últimos cinco días

Profundos videos falsos del presidente Joe Biden y el favorito republicano Donald Trump resaltan cómo la carrera presidencial de 2024 podría ser la primera prueba seria de la resistencia de la democracia estadounidense a la inteligencia artificial.

Los videos de Biden vestido como la estrella trans Dylan Mulvaney promocionando Bud Light y Trump enseñando a evadir impuestos dentro de un tranquilo salón de belleza en Albuquerque muestran que ni siquiera las figuras más poderosas del país están a salvo del robo de identidad por parte de la IA.

Los expertos dicen que si bien hoy en día es relativamente fácil detectar estas falsificaciones, será imposible en los próximos años porque la tecnología avanza a un ritmo muy rápido.

Ya se han vislumbrado los daños reales de la IA. Justo a principios de esta semana, una imagen de humo negro que salía del Pentágono, creada por IA, conmocionó al mercado de valores antes de que los verificadores de hechos de los medios finalmente pudieran corregir el registro.

Los expertos creen que la inquietante precisión de las voces y rostros generados por IA significa que será

Una falsificación profunda de Biden antes del juego en drag, publicado por @drunkamerica en Instagram, recibió 223,107 me gusta en los últimos cinco días. Los expertos creen que la inquietante precisión de las voces y rostros generados por IA significa que será «cada vez más difícil identificar la desinformación».

«Se está volviendo cada vez más difícil identificar la desinformación, particularmente el Deep Fake sofisticado generado por IA», según Cayce Myers, profesora de la Escuela de Comunicación de Virginia Tech.

«Detectar esta desinformación requerirá que los usuarios tengan más conocimiento de los medios y sean más inteligentes para examinar la verdad de cualquier afirmación», dijo el profesor Myers, que ha estado estudiando la tecnología Deep Fake y su creciente prevalencia.

«La barrera del costo para la IA generativa también es tan baja que ahora casi cualquier persona con una computadora e Internet tiene acceso a la IA», dijo Myers.

Myers enfatizó el papel que tendrán que desempeñar tanto las empresas tecnológicas como el ciudadano medio para evitar que estas oleadas de falsificaciones extrañas y creíbles abrumen la democracia estadounidense en 2024.

«Examinar las fuentes, comprender las señales de advertencia de desinformación y ser diligentes con lo que compartimos en línea es una forma personal de combatir la propagación de la desinformación», dijo Myers. ‘Sin embargo, eso no va a ser suficiente.’

«Las empresas que producen contenido de IA y las empresas de redes sociales donde se difunde la desinformación deberán implementar cierto nivel de medidas de protección para evitar que se propague la desinformación generalizada».

El temor es que los videos de políticos anunciando palabras que nunca dijeron puedan usarse como una potente herramienta de desinformación para influir en los votantes.

Las granjas de trolls infames en Rusia y otras partes del mundo hostiles a los EE. UU. se están utilizando para sembrar la disidencia en las redes sociales.

Han pasado cinco años desde que BuzzFeed y el director y comediante Jordan Peele produjeron una extraña sátira de Deep Fake sobre el expresidente Barack Obama para llamar la atención sobre el potencial alarmante de la tecnología.

«Podrían hacerme decir cosas como, no sé, [Marvel supervillain] «Killmonger tenía razón» o «Ben Carson está en el lugar hundido», dijo Peele en su imitación experta de Obama.

Una parodia de Deep Fake del expresidente Trump superpuso su voz y semejanza con el turbio abogado de la cadena AMC, Saul Goodman, de la serie Breaking Bad y Better Call Saul.  El video, del canal de YouTube CtrlShiftFace, ha recibido 24.000 me gusta desde que se publicó.

Una parodia de Deep Fake del expresidente Trump superpuso su voz y semejanza con el turbio abogado de la cadena AMC, Saul Goodman, de la serie Breaking Bad y Better Call Saul. El video, del canal de YouTube CtrlShiftFace, ha recibido 24.000 me gusta desde que se publicó.

‘O, qué tal esto: «Simplemente, el presidente Trump es un idiota total y completo».

Pero no son solo los académicos, los comediantes y los medios de comunicación los que hacen estas afirmaciones.

Los principales expertos en políticas se han hecho eco de sus preocupaciones, con creciente urgencia en los últimos años.

«Un deepfake o una serie de deepfakes en el momento oportuno y con un guion cuidadosamente escrito podría inclinar una elección», dijeron expertos que escribieron para el Consejo de Relaciones Exteriores en 2019.

¿QUÉ SON LOS DEEPFAKES?

La tecnología detrás de los deepfakes fue desarrollada en 2014 por Ian Goodfellow, quien fue director de aprendizaje automático en el Grupo de Proyectos Especiales de Apple y líder en el campo.

La palabra surge de la colaboración de los términos «aprendizaje profundo» y «falso», y es una forma de inteligencia artificial.

El sistema estudia a una persona objetivo en imágenes y videos, lo que le permite capturar múltiples ángulos e imitar su comportamiento y patrones de habla.

La tecnología llamó la atención durante la temporada electoral, ya que muchos desarrolladores temían que la usaran para socavar la reputación de los candidatos políticos.

El grupo también advirtió que Deep Fakes pronto podría «provocar violencia en una ciudad preparada para disturbios civiles, reforzar las narrativas insurgentes sobre las supuestas atrocidades de un enemigo o exacerbar las divisiones políticas en una sociedad».

Si bien Myers, de Virginia Tech, reconoce que programas como Photoshop han sido capaces de realizar falsificaciones similares a la vida real durante años, dice que la diferencia es que la IA de desinformación se puede hacer en gran volumen con una sofisticación cada vez mayor. “

«Photoshop permite imágenes falsas», dijo Myers, «pero la IA puede crear videos alterados que son muy atractivos». Dado que la desinformación es ahora una fuente generalizada de contenido en línea, este tipo de contenido de noticias falsas puede llegar a un público mucho más amplio, especialmente si el contenido se vuelve viral”.

Al igual que los videos de ‘Better Call Trump’ y Biden Bud Light.

Myers ha argumentado que veremos mucha más desinformación, tanto visual como escrita, seria y cómica, en un futuro cercano.

Pero la ayuda, en forma de regulación gubernamental de cualquier tipo, no parece estar en camino.

Este miércoles, el ex director ejecutivo de Google, Erich Schmidt, asesor de la Casa Blanca desde hace mucho tiempo, quien recientemente copresidió la Comisión de Seguridad Nacional de EE. UU. sobre IA, dijo que duda que EE. UU. establezca una nueva agencia reguladora para reinar en IA.

«El problema es que los legisladores no quieren crear una nueva ley que regule la IA antes de que sepamos hacia dónde se dirige la tecnología», dijo Myers.

Docenas de cuentas verificadas, como WarMonitors, BloombergFeed y RT, pasaron la imagen que muestra humo negro saliendo del suelo junto a un edificio blanco.

Docenas de cuentas verificadas, como WarMonitors, BloombergFeed y RT, pasaron la imagen que muestra humo negro saliendo del suelo junto a un edificio blanco.

CÓMO DETECTAR UNA FALSA PROFUNDA

1. Movimiento ocular antinatural. Los movimientos oculares que no parecen naturales, o la falta de movimiento ocular, como la ausencia de parpadeo, son grandes señales de alerta. Es un desafío replicar el acto de parpadear de una manera que parezca natural. También es un desafío replicar los movimientos oculares de una persona real. Eso es porque los ojos de alguien generalmente siguen a la persona con la que están hablando.

2. Expresiones faciales antinaturales. Cuando algo no se ve bien en una cara, podría indicar una transformación facial. Esto ocurre cuando una imagen ha sido cosida sobre otra.

3. Posicionamiento incómodo de las características faciales. Si la cara de alguien apunta hacia un lado y su nariz apunta hacia otro lado, debes ser escéptico sobre la autenticidad del video.

4. Falta de emoción. También puede detectar lo que se conoce como ‘transformación facial’ o puntos de imagen si la cara de alguien no parece mostrar la emoción que debería acompañar a lo que supuestamente está diciendo.

5. Cuerpo o postura de aspecto incómodo. Otro signo es si la forma del cuerpo de una persona no se ve natural, o si hay una posición incómoda o inconsistente de la cabeza y el cuerpo. Esta puede ser una de las inconsistencias más fáciles de detectar, porque la tecnología deepfake generalmente se enfoca en los rasgos faciales en lugar de todo el cuerpo.

6. Movimiento corporal o forma del cuerpo no naturales.. Si alguien se ve distorsionado o apagado cuando gira hacia un lado o mueve la cabeza, o sus movimientos son bruscos e inconexos de un cuadro al siguiente, debe sospechar que el video es falso.

7. Coloración poco natural. El tono de piel anormal, la decoloración, la iluminación extraña y las sombras fuera de lugar son signos de que lo que estás viendo probablemente sea falso.

8. Cabello que no parece real. No verás cabello encrespado o suelto. ¿Por qué? Las imágenes falsas no podrán generar estas características individuales.

9. Dientes que no parecen reales. Es posible que los algoritmos no puedan generar dientes individuales, por lo que la ausencia de contornos de dientes individuales podría ser una pista.

10. Borrosidad o desalineación. Si los bordes de las imágenes están borrosos o las imágenes están desalineadas, por ejemplo, donde la cara y el cuello de alguien se encuentran con su cuerpo, sabrá que algo anda mal.

11. Ruido o audio inconsistente. Los creadores de deepfakes suelen dedicar más tiempo a las imágenes de vídeo que al audio. El resultado puede ser una mala sincronización de labios, voces con sonido robótico, pronunciación extraña de palabras, ruido de fondo digital o incluso la ausencia de audio.

12. Imágenes que se ven poco naturales cuando se ralentizan. Si ve un video en una pantalla que es más grande que su teléfono inteligente o tiene un software de edición de video que puede ralentizar la reproducción de un video, puede acercar y examinar las imágenes más de cerca. Hacer zoom en los labios, por ejemplo, te ayudará a ver si realmente están hablando o si la sincronización de labios es mala.

13. Discrepancias de etiquetas. Hay un algoritmo criptográfico que ayuda a los creadores de videos a demostrar que sus videos son auténticos. El algoritmo se usa para insertar hashtags en ciertos lugares a lo largo de un video. Si los hashtags cambian, debe sospechar manipulación de video.

14. Huellas dactilares digitales. La tecnología Blockchain también puede crear una huella digital para videos. Si bien no es infalible, esta verificación basada en blockchain puede ayudar a establecer la autenticidad de un video. Así es como funciona. Cuando se crea un video, el contenido se registra en un libro de contabilidad que no se puede modificar. Esta tecnología puede ayudar a probar la autenticidad de un video.

15. Búsquedas inversas de imágenes. Una búsqueda de una imagen original, o una búsqueda de imagen inversa con la ayuda de una computadora, puede descubrir videos similares en línea para ayudar a determinar si una imagen, audio o video se ha alterado de alguna manera. Si bien la tecnología de búsqueda de video inverso aún no está disponible públicamente, invertir en una herramienta como esta podría ser útil.

Fuente

Written by Redacción NM

Líder de Oath Keepers sentenciado a 18 años de prisión por complot para mantener a Trump en el poder

DeSantis no descarta perdonar a Trump y a los acusados ​​del 6 de enero si es elegido presidente