La Inteligencia Artificial ha traído una revolución y se ha vuelto una herramienta esencial en diversas disciplinas. Desafortunadamente, el cibercrimen también hace uso de ella de diversas formas para llevar a cabo sus ataques y acciones maliciosas.

En febrero 2023 la marca de ciberseguridad ESET informó, sobre el uso malicioso que los ciberdelincuentes podría darle a herramientas con alcances tan amplios como la Inteligencia Artificial. En menos de un año y medio desde esta advertencia, ya estamos viendo las implicaciones de cómo los actores maliciosos están aprovechando la inteligencia artificial para robar información confidencial y obtener beneficios económicos.

Un ejemplo es WormGPT, el cual, a pesar de haber sido retirado por sus desarrolladores, anteriormente estaba disponible exclusivamente para cibercriminales en foros clandestinos. Tenía capacidades y alcances similares a los de ChatGPT, pero sin ninguna consideración ética.

A continuación, repasaremos cómo los ciberdelincuentes están utilizando la IA para crear estafas y quedarse con el dinero así como con los datos personales de sus víctimas.

Mejorar la técnica de suplantación de identidad.

Investigadores de seguridad de IA en ETH Zurich señalan que el crecimiento significativo de ChatGPT ha traído consigo un efecto secundario preocupante: un notable incremento en los correos de phishing. La inteligencia artificial generativa se ha convertido en una herramienta clave para diseñar estrategias engañosas que persuadan a las personas a compartir información confidencial, ya sea con fines lucrativos o para perpetrar acciones malintencionadas.

Servicios como GoMail Pro, que incorporan ChatGPT, permiten a los ciberatacantes mejorar el contenido de los mensajes dirigidos a sus objetivos. A pesar de los esfuerzos de OpenAI por restringir el uso indebido de sus productos, resulta complicado detectar y regular estas prácticas. Sin embargo, a principios de este año, anunciaron el cierre de cinco cuentas vinculadas al cibercrimen.

Sin embargo, la IA no solo se emplea como una herramienta para crear contenidos más persuasivos, sino también para traducir mensajes y mejorar la comunicación entre distintos grupos de cibercriminales en todo el mundo. Según un artículo del MIT (Massachusetts Institute of Technology), existe el peligro de que estos grupos coordinen operaciones a gran escala que trasciendan las fronteras nacionales y se dirijan a víctimas en otros países.

Mejorar el proceso de doxing.

El doxing, también conocido como doxxing, implica la divulgación de información personal de terceros con el objetivo de intimidar, extorsionar u ocasionar algún tipo de daño. En 2020, esta táctica se consolidó como parte de los ataques de ransomware, donde los ciberdelincuentes, además de cifrar los archivos, sustraen datos de las víctimas para aumentar la presión sobre las organizaciones. Amenazan con hacer públicos estos datos privados si no se paga el rescate.

Hoy en día, gracias a la inteligencia artificial, que se entrena con una amplia cantidad de datos de Internet, incluidos, por supuesto, los datos personales, pueden inferir, por ejemplo, la posible ubicación de una persona. La premisa es sencilla: cuanta más información exista sobre nosotros en Internet, más expuestos estamos a este tipo de prácticas.

En realidad, el investigador de seguridad Mislav Balunović y su equipo descubrieron que con la ayuda de GPT-4 es factible deducir información sensible de una persona, como su origen étnico o ubicación, simplemente a través de conversaciones con un chatbot. Por lo tanto, como siempre aconsejamos, es fundamental reflexionar sobre qué tipo de información y contenidos se comparten en línea.

Crear estafas más realistas por audio y deepfake.

La evolución de la inteligencia artificial generativa ha llegado a un punto en el que resulta complicado distinguir entre una imagen real y una generada por esta tecnología. Un caso emblemático que ejemplifica esta situación es el de un empleado estafado que perdió 24 millones de dólares después de una reunión con alguien que aparentaba ser el director financiero de la empresa y le solicitaba una transferencia por una suma considerable.

La otra cara de la misma moneda son las estafas de audio. Basta con grabar unos pocos segundos de la voz de alguien, como un video subido a Instagram o TikTok, para crear algo sorprendentemente convincente. Es crucial que la gente sea consciente de que estas prácticas son factibles en la actualidad, incluso el príncipe de Nigeria ya no tiene un inglés entrecortado. De hecho, podrían contactarte con otra voz y generarte una situación muy estresante, según señala el análisis del MIT.

Esquivar controles de identidad.

Al igual que los deepfakes, los delincuentes cibernéticos han descubierto cómo evadir los controles que verifican la identidad de una persona mediante una imagen, gracias a la Inteligencia Artificial. ¿Cómo lo logran? Usando un documento de identificación falso o robado, logran superponer esa imagen sobre el rostro de la persona real, de manera similar a un filtro de la plataforma Instagram, para engañar al sistema.

Aunque actualmente esta práctica está en una etapa inicial, es un enfoque que tiene potencial para mejorar y ampliar su implementación.

Proporcionar servicios de jailbreak.

Las compañías que desarrollan herramientas de inteligencia artificial incorporan múltiples medidas de seguridad para evitar que sus modelos revelen información potencialmente peligrosa a los usuarios. Por otro lado, los ciberdelincuentes están prefiriendo contratar servicios de jailbreak en lugar de desarrollar sus propios modelos de IA, ya que esto les ahorraría tiempo y dinero.

Los ciberatacantes tienen la capacidad de alterar el sistema de inteligencia artificial específico, creando respuestas relacionadas con la generación de contenido para correos maliciosos o incluso para redactar código destinado a ransomware u otros tipos de malware, evadiendo así las limitaciones de las herramientas originales.

Conclusiones.

La tecnología y la Inteligencia Artificial no son inherentemente buenas ni malas; su valor radica en las intenciones detrás de su uso. Un ejemplo de esto es la actualidad de casos donde ChatGPT se emplea para analizar malware.Y su influencia se extiende a otras áreas de importancia: la inteligencia artificial puede tener un impacto sumamente positivo en la educación y está generando implicaciones significativas en sectores cruciales como la medicina.

Sin embargo, es imposible no mencionar el uso que se puede dar a estos avances tecnológicos en manos inapropiadas. Estar al tanto de las estrategias y tácticas de los cibercriminales es fundamental para no caer víctima de sus fraudes y engaños.

Fuente web: https://www.welivesecurity.com/es/cibercrimen/uso-inteligencia-artificial-cibercrimen/