Nueva amenaza para las empresas
ESET advierten que las llamadas falsas con IA no se distingue
La IA generativa (GenAI) democratizó la creación de audio y vídeo falsos, hasta el punto de que generar un clip fabricado es tan fácil como pulsar un botón o dos. Las deepfakes pueden ser usadas de varias formas: desde eludir autenticaciones y controles, hasta infiltrarse en organizaciones creando un candidato falso y sintético para procesos de selección de personal.
Sin embargo, podría decirse que la mayor amenaza que plantean es el fraude financiero/transferencias bancarias y el secuestro de cuentas de ejecutivos.
ESET, especialista en detección proactiva de amenazas, ofrece herramientas para poder identificar cuando una llamada es falsa. Como ha demostrado un experimento de Jake Moore, global security advisor de ESET, nunca ha sido tan fácil lanzar un ataque de audio deepfake.
Todo lo que se requiere es un clip corto de la víctima para ser suplantado y la GenAI puede hacer el resto. Macio Micucci, investigador de Seguridad Informática de ESET Latinoamérica, advierte que “este tipo de ataque es cada vez más barato, sencillo y convincente.
Algunas herramientas son capaces incluso de insertar ruido de fondo, pausas y tartamudeos para que la voz suplantada resulte más creíble”.
leídas
