La inteligencia artificial (IA) contribuye a la automatización de tareas repetitivas, lo que incrementa la eficiencia y reduce costos. Además, mejora el servicio al cliente y la programación, y ayuda en la gestión de información para optimizar la toma de decisiones empresariales. Cada vez más, las empresas están adoptando estas tecnologías en su rutina diaria. Según una encuesta de Gartner realizada en octubre de 2023, el 55% de las organizaciones ya estaban experimentando con soluciones de IA generativa (45%) o las habían implementado (15%). Es probable que estas cifras hayan aumentado desde entonces.
No obstante, las empresas delictivas también están innovando en el uso de la tecnología, lo que representa un desafío para los líderes de TI y de negocios a nivel global. Para combatir esta creciente amenaza de fraude, es fundamental desarrollar una respuesta estratificada que se enfoque en las personas, los procesos y la tecnología.
¿Cuáles son las amenazas más recientes relacionadas con la IA y los deepfakes?
Los ciberdelincuentes están aprovechando el potencial de la IA y los deepfakes de diversas formas. Algunas de estas incluyen:
- Empleados ficticios: Según informes, con identidades falsas generadas por IA, agentes norcoreanos se infiltran en empresas a través de plataformas freelance. Buscan acceso a datos sensibles, espionaje y generar ingresos para el régimen, incluyendo ataques de ransomware
- Una nueva clase de estafas BEC: Los deepfakes de audio y video están potenciando el fraude BEC, engañando a empleados financieros para transferir fondos corporativos. Un caso reciente: un empleado transfirió 25 millones de dólares tras ser engañado por deepfakes que simulaban ser altos directivos en una videoconferencia. Este no es un fenómeno nuevo; en 2019, un ejecutivo británico perdió £200,000 al ser engañado por la voz deepfake de su jefe.
- Eludir el proceso de autenticación: Los deepfakes se emplean para múltiples fraudes: suplantación de clientes, creación de identidades falsas y elusión de autenticación en la creación de cuentas. El malware GoldPickaxe, especialmente sofisticado, recopila datos faciales para generar deepfakes. Alarmantemente, el 13.5% de las nuevas cuentas digitales a nivel mundial fueron sospechosas de fraude el año pasado.
- Estafas deepfake: Los ciberdelincuentes explotan los deepfakes para suplantar a CEOs y figuras de alto perfil en redes sociales, promoviendo estafas de inversión y otros fraudes. Como advierte Jake Moore de ESET, cualquier líder corporativo es vulnerable. Además, el informe de ESET revela el fraude «Nomani», donde los criminales usan deepfakes y marcas empresariales en redes sociales para engañar a inversores.
- Desencriptado de contraseñas: Los algoritmos de inteligencia artificial pueden ser utilizados para descifrar contraseñas de clientes y empleados, facilitando así el robo de datos, el ransomware y el fraude masivo de identidad. Un ejemplo de esto es PassGAN, que es capaz de descifrar contraseñas en menos de treinta segundos.
- Falsificación de documentos: La IA facilita la falsificación de documentos, permitiendo eludir los controles KYC en bancos y empresas, y potenciando el fraude de seguros. El 94% de los gestores de siniestros sospechan que al menos el 5% de los reclamos son manipulados con IA, especialmente los de menor valor
- Phishing y exploración: El Centro Nacional de Ciberseguridad del Reino Unido (NCSC) ha emitido una advertencia sobre el crecimiento que los ciberdelincuentes están experimentando gracias a la IA generativa y otras tecnologías. A principios de 2024, afirmó que esta tecnología «aumentará casi con toda seguridad el volumen y agudizará el impacto de los ciberataques en los próximos dos años», con un efecto especialmente significativo en la mejora de la eficacia de la ingeniería social y el reconocimiento de objetivos. Esto fomentará el ransomware y el robo de datos, así como ataques de phishing a gran escala dirigidos a los clientes.
¿Cuál es el efecto de las amenazas relacionadas con la IA?
El efecto del fraude facilitado por la IA se traduce, en última instancia, en daños financieros y reputacionales de diferentes magnitudes. Un informe señala que el 38% de los ingresos perdidos por fraude el año pasado fueron atribuibles a fraudes impulsados por IA. Es fundamental destacar las repercusiones de estos fraudes:
- La evasión de los controles de identificación de clientes permite a los estafadores acumular créditos fraudulentos y saquear las cuentas de clientes legítimos.
- La infiltración de falsos empleados facilita el robo de información sensible, tanto de propiedad intelectual como de clientes, generando graves problemas financieros, de reputación y de cumplimiento normativo.
- Las estafas BEC generan pérdidas masivas, alcanzando los ciberdelincuentes ganancias superiores a 2,900 millones de dólares solo en 2023
- La suplantación de identidad erosiona la confianza del cliente. Un tercio de los consumidores abandonaría una marca tras una sola experiencia negativa
Combate el fraude impulsado por la Inteligencia Artificial.
La batalla contra el creciente fraude facilitado por la IA necesita una respuesta integral que abarque varios niveles, enfocándose en las personas, los procesos y la tecnología. Esto debería incluir:
- Evaluaciones periódicas del riesgo de fraude.
- Actualización de las políticas contra el fraude para alinearlas con la inteligencia artificial.
- Programas completos de capacitación y sensibilización para el personal, que incluyan:
- Cómo identificar el phishing.
- Cómo reconocer las falsificaciones profundas.
- Programas de capacitación y sensibilización para los clientes.
- Activación de la autenticación multifactor (AMF) en todas las cuentas corporativas y para clientes sensibles.
- Optimización de la verificación de antecedentes de los empleados, analizando los currículos para detectar incoherencias en la trayectoria profesional.
- Fomentar la colaboración entre los equipos de Recursos Humanos y Ciberseguridad.
La tecnología de inteligencia artificial también puede desempeñar un papel en esta batalla, por ejemplo:
- Herramientas impulsadas por IA para identificar deepfakes (como en verificaciones KYC).
- Algoritmos de aprendizaje automático para identificar patrones de comportamiento inusual en los datos de empleados y clientes.
- GenAI para crear datos sintéticos que permitan desarrollar, probar y entrenar nuevos modelos de detección de fraudes.
A medida que la lucha entre la inteligencia artificial maliciosa y la benévola se intensifica, las organizaciones deben revisar y actualizar sus políticas de ciberseguridad y antifraude para mantenerse al día con la evolución del panorama de amenazas. Con tanto en juego, ignorar esta necesidad podría impactar negativamente en la lealtad del cliente a largo plazo, afectar el valor de la marca e incluso poner en peligro las iniciativas de transformación digital.
La inteligencia artificial tiene el poder de transformar las estrategias de nuestros competidores. Sin embargo, también puede beneficiar a los equipos de seguridad y gestión de riesgos dentro de las empresas.
Fuente web: https://www.welivesecurity.com/es/seguridad-corporativa/fraude-empresarial-impulsado-ia/