La Inteligencia Artificial ha transformado el mundo, pero también ha dado a los ciberdelincuentes una herramienta poderosa: la clonación de voz. Ahora, los estafadores pueden imitar voces de familiares y amigos con una precisión alarmante, engañando a sus víctimas para obtener información personal o dinero. Este artículo explora cómo funcionan estas estafas, su impacto y cómo protegerse.
La clonación de voz: un engaño que está en aumento.
En diversas ocasiones hemos señalado cómo la Inteligencia Artificial puede ser aprovechada por el cibercrimen para mejorar significativamente sus ataques y fraudes. Las estafas que utilizan la clonación de voz son un claro ejemplo de esta problemática.
Los cibercriminales, en particular, extraen pequeños fragmentos de grabaciones auténticas y, utilizando Inteligencia Artificial junto con patrones de voz, producen conversaciones y frases para llevar a cabo sus fraudes, lo que puede resultar en consecuencias tan graves como costosas.
¿De dónde pueden conseguir estas muestras de voz? Muy sencillo: a partir de grabaciones de voz o de videos que se encuentren en redes sociales como Instagram o TikTok.
Un dato interesante: Voice Engine, la herramienta de Inteligencia Artificial de OpenAI capaz de imitar voces humanas con gran precisión, requiere una entrada de texto y una única muestra de audio de 15 segundos para crear un habla que suene natural y que se asemeje al original.
Para evaluar su impacto, la Comisión Federal de Comercio de los Estados Unidos reportó que en 2023, el país sufrió una pérdida de 2,700 millones de dólares debido a estafas.
En este sentido, Starling Bank, un banco británico que opera exclusivamente en línea, advirtió sobre el aumento de este tipo de fraudes en el Reino Unido. Una encuesta realizada a más de 3,000 personas reveló que más de una cuarta parte de los adultos afirmó haber sido víctima de una estafa de clonación de voz utilizando inteligencia artificial al menos una vez en el último año. Además, lo más alarmante es que el 46% de los encuestados desconocía la existencia de tales fraudes.
En el mismo informe se indicó que los estafadores pueden imitar la voz de una persona utilizando inteligencia artificial, simplemente a partir de tres segundos de audio, los cuales pueden ser fácilmente obtenidos si hay un video publicado en línea, por ejemplo.
La inquietud alcanzó incluso al FBI.
El aumento de estafas que utilizan Inteligencia Artificial ha sido tan alarmante que incluso el FBI ha emitido un comunicado para advertir al público.
“Los delincuentes están utilizando la IA para generar mensajes de voz, videos y correos electrónicos extremadamente convincentes, lo que facilita esquemas de fraude tanto contra individuos como empresas. Estas tácticas avanzadas pueden provocar pérdidas financieras significativas, daños a la reputación y compromisos de datos sensibles”, enfatizó la agencia.
Asimismo, el FBI señala que los atacantes han logrado “manipular y crear contenido de audio y video con un realismo sin precedentes, con el objetivo de engañar a víctimas desprevenidas para que revelen información confidencial o autoricen transacciones fraudulentas”.
¿Cómo protegerse de estas estafas?
Ante este tipo de fraudes que utilizan la ingeniería social, el primer paso es mantenerse alerta. Esto implica prestar especial atención a los mensajes inesperados que llegan con urgencia solicitando dinero o credenciales de cuentas específicas. En esa misma línea, es recomendable devolver la llamada al familiar o amigo en cuestión utilizando un número de teléfono conocido.
Otra estrategia sugerida por los expertos es establecer una “frase segura”, acordada previamente entre familiares y amigos, para verificar que la persona que está al otro lado de la línea sea realmente quien dice ser.
En el contexto empresarial, además de implementar soluciones para reducir la cantidad de correos electrónicos, llamadas y mensajes de phishing que reciben los empleados, es crucial educar a las personas para que puedan identificarlos y evitar caer en la trampa.
Asimismo, es fundamental aplicar la autenticación multifactor siempre que sea posible. Esto añade una capa adicional de seguridad para que los ciberdelincuentes no puedan acceder a nuestras cuentas y sistemas.
Fuente web: https://www.welivesecurity.com/es/estafas-enganos/clonacion-voz-inteligencia-artificial-ia/