Clonación de voz con IA en aumento
No es una novedad que la inteligencia artificial ha revolucionado el mundo, y los ciberdelincuentes han sabido aprovechar su potencial para realizar ataques de ingeniería social más realistas y sofisticados.
Las técnicas que involucran la clonación de voz para suplantar a familiares, amigos o conocidos están en auge, con el objetivo obtener información privada o, directamente, dinero de sus víctimas.
La compañía ESET, especialista en detección proactiva de amenazas, analiza la metodología de estos atacantes, y cómo pueden afectar a las personas y de qué manera evitar ser víctima.
Los cibercriminales toman pequeños fragmentos de grabaciones reales y, mediante el uso de la inteligencia artificial y los patrones de voz, crean conversaciones y frases para llevar a cabo sus engaños, con consecuencias tan graves como costosas.
Estas muestras las obtienen de grabaciones de voz o de videos que estén publicados en redes sociales como Instagram o TikTok.
Para dimensionar cuál es su impacto, la Comisión Federal de Comercio de los Estados Unidos informó que, sólo en 2023, el país perdió 2,700 millones de dólares por estafas.
En esa línea, Starling Bank, banco británico que opera de manera online, alertó sobre la preponderancia de este tipo de estafas en el Reino Unido.
Una encuesta a más de 3,000 personas reveló que más de una cuarta parte de los adultos puede ser estafado.
Etiquetas
Artículos Relacionados