Por Naveen Athrapply
El contenido de Deepfake cada vez más difícil de detectar creado con inteligencia artificial está siendo explotado por delincuentes para hacerse pasar por personas de confianza, dijo el FBI y la Asociación Americana de Banqueros (ABA) en un informe publicado el 3 de septiembre.
En su infografía de «estafas de los medios de comunicación», el FBI dijo que las estafas dirigidas a los estadounidenses están surgiendo. Desde 2020, la agencia ha recibido más de 4.2 millones de informes de fraude, por valor de $ 50.5 mil millones en pérdidas. «Las estafas de impostores en particular están en aumento … Los delincuentes están usando deffakes o medios generados o manipulados por AI, para ganar su confianza y estafa de su dinero ganado con tanto esfuerzo».
El contenido de Deepfake puede incluir imágenes alteradas, audio o video. Los estafadores pueden posar como familia, amigos o figuras públicas, incluidas celebridades, fuerzas del orden y funcionarios gubernamentales, advirtió el FBI.
«Los profundos se están volviendo cada vez más sofisticados y más difíciles de detectar», dijo Sam Kunjukunju, vicepresidente de educación del consumidor de la Fundación ABA.
Según la infografía, ciertas inconsistencias en el material generado por IA pueden ayudar a detectar deffaces profundos.
Cuando se trata de imágenes o videos, las personas deben tener cuidado con caras borrosas o distorsionadas; sombras o iluminación antinaturales; si el audio y el video están fuera de sincronización; si los dientes y el cabello se ven reales; Y si la persona parpadea muy poco o demasiado. En el caso del audio, las personas deben escuchar atentamente para determinar si el tono de voz es demasiado plano o antinatural.
La infografía enumeró tres banderas rojas de una estafa de defake Deep: solicitudes inesperadas de dinero o información personal; manipulación emocional que implica urgencia o miedo; y comunicación poco característica de lo que parece ser un individuo conocido.
Para permanecer seguros, el ABA y el FBI aconsejaron a los estadounidenses que pensen antes de responder a las solicitudes emocionales o urgentes, y crear palabras o frases en código para confirmar las identidades de los seres queridos.
«El FBI continúa viendo un aumento preocupante en los informes de fraude que involucran a Deepfake Media», dijo José Pérez, subdirector de la División de Investigación Criminal del FBI.
«Educar al público sobre esta amenaza emergente es clave para prevenir estas estafas y minimizar su impacto. Alentamos a los consumidores a mantenerse informados y compartir lo que aprenden con amigos y familiares para que puedan detectar infartos profundos antes de que hagan daño».
Según un informe del 6 de agosto del Grupo-IB de la Compañía de Ciberseguridad, el impacto económico global de las pérdidas por fraude habilitado para Deepfake alcanzará los $ 40 mil millones para 2027.
«El dinero robado casi nunca se recupera: debido al lavado rápido a través de cadenas de melodías de dinero y mezcladores criptográficos, se recuperan menos del 5 por ciento de los fondos perdidos por las sofisticadas estafas salpicantes», dijo.
Vishing, una breve forma de phishing de voz, se refiere a los estafadores que se hacen pasar por cifras de autoridad como funcionarios gubernamentales, personal de apoyo técnico y empleados bancarios para engañar a los objetivos y robar dinero.
Según el grupo-IB, Deepfake Vishing depende en gran medida de las tácticas de manipulación emocional. Los objetivos de tales estafas incluyen ejecutivos corporativos y empleados financieros.
Las personas mayores y emocionalmente angustiadas también son vulnerables a las tácticas de Vishing Deepfake debido a su limitada alfabetización digital y falta de familiaridad con la tecnología de voz artificial, agregó el grupo-II. Como tal, las estafas que involucran suplantación de voces de sonido familiar pueden tener un mayor impacto en estas personas.
En junio, salió a la luz un incidente de estafa de Deepfake que involucró a un hombre canadiense de unos 80 años perdiendo más de $ 15,000 en un esquema que utilizó un profundo primer ministro de Ontario, Doug Ford.
En la estafa, Ford fue representado promoviendo una cuenta de fondos mutuos, que la víctima vio a través de un anuncio de Facebook. Cuando la víctima hizo clic en el anuncio, se abrió una conversación, que finalmente lo convenció de invertir el dinero.
En junio, el senador Jon Husted (R-Ohio) introdujo la bipartidista que evita la Ley de Falsas Falsas, cuyo objetivo es abordar la amenaza planteada por dicho fraude.
El proyecto de ley busca abordar los datos o el robo o fraude de identidad asistidos por AI-AI al establecer un grupo de trabajo centrado en la IA en el sector financiero.
«Los estafadores están usando falsificaciones profundas para hacerse pasar por los miembros de la familia de las víctimas para robar su dinero», dijo Husted.
«A medida que los estafadores continúan planeando, debemos asegurarnos de utilizar la IA para poder proteger mejor a los estadounidenses inocentes y evitar que estas estafas ocurran en primer lugar. Mi proyecto de ley protegería a las personas mayores, familias y pequeñas empresas de Ohio de actores maliciosos que aprovechan su compasión».




























