La inteligencia artificial (IA) es el tema del momento, con lo último y lo mejor en tecnología de IA captando una atención mediática sin precedentes. Uno de los sectores que se verá más beneficiado, o quizás perjudicado, es el de la ciberseguridad. Contrario a la creencia popular, algunos profesionales llevan más de veinte años utilizando esta tecnología de alguna manera. Sin embargo, la potencia de la computación en la nube y los algoritmos avanzados se están fusionando para reforzar aún más las defensas digitales o impulsar una nueva generación de aplicaciones basadas en IA, que podrían revolucionar la manera en que las organizaciones protegen, detectan y responden a los ataques.

En contraste, a medida que estas habilidades se abaratan y se vuelven más accesibles, los ciberdelincuentes también emplearán la tecnología en la ingeniería social, la desinformación, las estafas y otros medios. Un nuevo white paper compartido por marca ESET tiene como objetivo explorar las amenazas y oportunidades para los defensores cibernéticos.

Historia breve de la inteligencia artificial en ciberseguridad.

Los modelos de lenguaje avanzados (LLM) pueden ser la razón por la que las salas de reuniones de todo el mundo están hablando de IA, pero la tecnología se ha estado utilizando de diversas formas desde hace años. Un ejemplo, la marca de ciberseguridad ESET implementó por primera vez la IA hace más de veinticinco años mediante redes neuronales para mejorar la detección de macrovirus y desde entonces, ha empleado la IA de varias maneras para:

  • Distinción entre muestras de código malicioso y código limpio.
  • Triage rápido, clasificación y etiquetado de muestras de malware a gran escala.
  • Un sistema de reputación en la nube que utiliza un modelo de aprendizaje continuo basado en datos de entrenamiento.
  • Protección de puntos finales con altos índices de detección y bajos índices de falsos positivos, gracias a la combinación de redes neuronales, árboles de decisión y diferentes algoritmos.
  • Una poderosa herramienta de sandbox en la nube impulsada por un aprendizaje automático multicapa para la detección, desempaquetado y escaneo, así como para la detección experimental y el análisis profundo del comportamiento.
  • Nueva protección de la nube y de los puntos finales potenciada por modelos de IA innovadores.
  • XDR ayuda en la priorización de amenazas al correlacionar, clasificar y agrupar una gran cantidad de eventos.

¿Por qué los equipos de seguridad emplean la inteligencia artificial?

En la actualidad, los equipos de seguridad requieren herramientas basadas en IA más efectivas que nunca, debido a tres factores clave:

La falta de personal calificado sigue siendo un desafío importante.

En el último conteo, había una escasez de aproximadamente cuatro millones de expertos en ciberseguridad en todo el mundo, con 348,000 en Europa y 522,000 en América del Norte. Las empresas necesitan herramientas para aumentar la eficiencia de su personal existente y brindar orientación sobre la identificación y solución de amenazas en ausencia de colegas de alto rango. A diferencia de los equipos humanos, la inteligencia artificial puede operar las 24 horas del día, los 7 días de la semana y los 365 días del año, detectando patrones que los profesionales de seguridad podrían pasar por alto.

Los agentes de las amenazas son rápidos, determinados y poseen abundantes recursos.

A medida que los equipos de ciberseguridad enfrentan dificultades para reclutar personal, sus adversarios se vuelven cada vez más poderosos. Según una proyección, se estima que la economía de la ciberdelincuencia podría ocasionar al mundo pérdidas de hasta 10.5 billones de dólares al año para el 2025. Los posibles actores de amenazas tienen a su disposición todo lo necesario para llevar a cabo ataques, reunido en ofertas y kits de herramientas «como servicio» listos para utilizar. Los intermediarios proporcionan acceso a organizaciones que han sido previamente atacadas.E incluso los agentes estatales se están implicando en ataques con motivaciones financieras, sobre todo Corea del Norte, pero también China y otras naciones.

Nunca ha habido tanto en juego.

Conforme la inversión en el ámbito digital ha ido aumentando con el tiempo, la dependencia de los sistemas informáticos para impulsar el crecimiento sostenible y la ventaja competitiva también ha crecido. Los defensores de la red comprenden que si no logran prevenir, detectar y contener rápidamente las ciberamenazas, su organización podría enfrentar graves perjuicios financieros y de reputación. En la actualidad, el costo promedio de una violación de datos asciende a 4.45 millones de dólares. Sin embargo, una violación grave por ransomware, que involucre la interrupción del servicio y el robo de datos, podría resultar en una cifra significativamente mayor. Se estima que solo las instituciones financieras han sufrido pérdidas de 32.000 millones de dólares en tiempo de inactividad debido a interrupciones del servicio desde 2018.

¿De qué manera los equipos de seguridad emplean la inteligencia artificial?

Por lo tanto, no sorprende que las organizaciones estén buscando aprovechar la inteligencia artificial para prevenir, detectar y responder a las ciberamenazas de manera más efectiva. ¿Pero cómo lo logran? Al correlacionar indicadores dentro de grandes volúmenes de datos para detectar ataques, identificar códigos maliciosos a partir de actividades sospechosas y asistir a los analistas de amenazas al interpretar datos complejos y priorizar alertas.

A continuación, se presentan algunos ejemplos de usos actuales y futuros de la inteligencia artificial para el beneficio general:

  • Comprensión de amenazas: Los asistentes GenAI impulsados por LLM tienen la capacidad de simplificar lo complicado al analizar informes técnicos detallados para resumir los puntos esenciales y los aspectos prácticos en un lenguaje sencillo dirigido a los analistas.
  • Asistentes de IA: Integrar «copilotos» de IA en los sistemas informáticos puede ser beneficioso para prevenir errores de configuración riesgosos que de otra manera podrían exponer a las organizaciones a posibles ataques. Esta estrategia puede aplicarse a sistemas informáticos en general, incluidas las plataformas en la nube, así como a herramientas de seguridad como los firewalls, que a menudo necesitan configuraciones complejas para su correcto funcionamiento.
  • Incremento en la productividad de los Centros de Operaciones de Seguridad (SOC): Actualmente, los analistas de los Centros de Operaciones de Seguridad (SOC) enfrentan una gran presión para detectar, responder y contener rápidamente las amenazas entrantes. Sin embargo, el tamaño de la superficie de ataque y la cantidad de herramientas que generan alertas pueden resultar abrumadores. Esto conlleva a que las amenazas legítimas pasen desapercibidas mientras los analistas dedican tiempo a falsos positivos. La inteligencia artificial puede aliviar esta carga al contextualizar y priorizar estas alertas, e incluso resolver las menos importantes.
  • Nuevos descubrimientos: Los actores de las amenazas evolucionan constantemente sus tácticas, técnicas y procedimientos (TTP). Pero combinando los indicadores de compromiso (IoC) con la información pública disponible y los feeds de amenazas, las herramientas de IA podrían escanear en busca de las amenazas más recientes.

¿Cómo se utiliza la IA en los ciberataques?

Lamentablemente, los ciberdelincuentes también han comenzado a centrarse en la inteligencia artificial. Según el Centro Nacional de Ciberseguridad del Reino Unido (NCSC), esta tecnología «intensificará la amenaza global del ransomware» y «probablemente aumentará tanto el volumen como el impacto de los ciberataques en los próximos dos años». ¿Cómo están empleando actualmente la inteligencia artificial los perpetradores de amenazas? Tenga en cuenta lo siguiente:

  • Ingeniería social: Uno de los usos más evidentes de GenAI es asistir a los actores de amenazas en la creación de campañas de phishing altamente persuasivas y casi perfectas gramaticalmente, a gran escala.
  • BEC y otras estafas: En repetidas ocasiones, la tecnología GenAI se puede utilizar para imitar el estilo de escritura de una persona o empresa en particular, con la intención de engañar a alguien para que realice transferencias de dinero o comparta información confidencial o datos de inicio de sesión. Además, el uso de deepfake en audio y video también podría aplicarse con este propósito. El FBI ha emitido múltiples advertencias al respecto en el pasado.
  • Desinformación: GenAI también puede ocuparse de producir contenido para campañas de influencia. Un reporte reciente alertaba sobre el uso de estas tácticas por parte de Rusia, las cuales podrían extenderse si resultan exitosas.

Los alcances de la inteligencia artificial.

En la actualidad, la inteligencia artificial tiene sus limitaciones, ya sea para bien o para mal. Puede generar tasas elevadas de falsos positivos y, sin conjuntos de entrenamiento de calidad, su influencia será limitada. Por lo general, se requiere supervisión humana para verificar la precisión de los resultados y para entrenar los modelos. Todo indica que la IA no es la solución perfecta, ni para los atacantes ni para los defensores.

Con el paso del tiempo, es posible que sus herramientas compitan entre sí: unos buscando vulnerabilidades en las defensas y engañando a los empleados, mientras que otros buscan señales de actividad maliciosa de la IA. Estamos presenciando el inicio de una nueva era en la carrera armamentista de la ciberseguridad.

Fuente web: https://www.welivesecurity.com/es/seguridad-digital/white-paper-inteligencia-artificial-papel-en-la-ciberseguridad/