Las aplicaciones de la inteligencia artificial (IA) para tareas de ciberseguridad están atrayendo una mayor atención de los sectores público y privado. Las estimaciones indican que el mercado de la IA en ciberseguridad crecerá a un patrimonio neto de 34.8 mil millones de dólares para 2025. Las últimas estrategias nacionales de ciberseguridad y defensa de varios gobiernos mencionan explícitamente las capacidades de la IA. Al mismo tiempo, están surgiendo iniciativas a escala mundial para definir nuevos estándares y procedimientos de certificación para generar la confianza de los usuarios en la IA.
Los controles de ciberseguridad tradicionales han quedado obsoletos
Para la mayoría de los escenarios de seguridad, la IA habilita capacidades que van más allá de la identificación de amenazas conocidas. Los modelos de IA pueden determinar la malicia de un archivo sin conocimiento previo del mismo, confiando en cambio en el análisis de las propiedades innatas del archivo. Con suficientes datos de calidad disponibles, las técnicas de IA superan fácilmente los enfoques de prevención tradicionales basados en firmas o indicadores de compromiso (IoC), que buscan retroactivamente los artefactos que deja un atacante durante una infracción.
Aplicando IA a la ciberseguridad
La IA es ideal para resolver algunos de nuestros problemas más difíciles, y la ciberseguridad ciertamente entra en esa categoría. Con los ataques cibernéticos en constante evolución y la proliferación de dispositivos de hoy en día, el aprendizaje automático y la inteligencia artificial se pueden usar para mantenerse al día con los malos, automatizar la detección de amenazas y responder de manera más eficiente que los enfoques tradicionales basados en software.
Al mismo tiempo, la ciberseguridad presenta algunos desafíos únicos:
- Una vasta superficie de ataque.
- Decenas o cientos de miles de dispositivos por organización.
- Cientos de vectores de ataque.
- Grandes deficiencias en el número de profesionales de seguridad capacitados.
- Masas de datos que han ido más allá de un problema a escala humana.
Un sistema de gestión de la postura de ciberseguridad con autoaprendizaje y basado en inteligencia artificial debería ser capaz de resolver muchos de estos desafíos. Existen tecnologías para entrenar adecuadamente un sistema de autoaprendizaje para recopilar datos de manera continua e independiente de todos los sistemas de información de su empresa. Luego, esos datos se analizan y se utilizan para realizar la correlación de patrones entre millones y miles de millones de señales relevantes para la superficie de ataque empresarial.
El resultado son nuevos niveles de inteligencia que alimentan a los equipos humanos en diversas categorías de ciberseguridad, que incluyen:
- Inventario de activos de TI: Obtención de un inventario completo y preciso de todos los dispositivos, usuarios y aplicaciones con acceso a los sistemas de información. La categorización y medición de la importancia del negocio también juega un papel importante en el inventario.
- Exposición a amenazas: Los sistemas de ciberseguridad basados en inteligencia artificial pueden proporcionar conocimiento actualizado de las amenazas globales y específicas de la industria para ayudar a tomar decisiones críticas de priorización basadas no solo en lo que podría usarse para atacar a su empresa, sino también en lo que es probable que se use para atacar su empresa.
- Efectividad de los controles: Es importante comprender el impacto de las diversas herramientas de seguridad y los procesos de seguridad que ha empleado para mantener una postura de seguridad sólida. La IA puede ayudar a comprender dónde tiene fortalezas su programa de seguridad y dónde tiene lagunas.
- Predicción de riesgo de incumplimiento: Teniendo en cuenta el inventario de activos de TI, la exposición a amenazas y la efectividad de los controles, los sistemas basados en inteligencia artificial pueden predecir cómo y dónde es más probable que sufra una violación, de modo que pueda planificar la asignación de recursos y herramientas hacia las áreas de debilidad.
- Respuesta a incidentes: Los sistemas impulsados por inteligencia artificial pueden proporcionar un contexto mejorado para la priorización y respuesta a las alertas de seguridad, para una respuesta rápida a los incidentes y para descubrir las causas fundamentales para mitigar vulnerabilidades y evitar problemas futuros.
Haciendo que la IA en ciberseguridad sea confiable
Los estándares y métodos de certificación nacientes para la IA en ciberseguridad deben centrarse en respaldar la confiabilidad de la IA, en lugar de la confianza.
Conceptual y operativamente, respaldar la confiabilidad de la IA es diferente a fomentar su confiabilidad. La confiabilidad de la IA implica que la tecnología puede, técnicamente, realizar tareas de ciberseguridad con éxito, pero los riesgos de que la tecnología se comporte de manera diferente a lo esperado son demasiado altos para renunciar a cualquier forma de control o monitoreo sobre la ejecución de la tarea delegada.
3 formas de que la Inteligencia Artificial en ciberseguridad sea confiable:
- Desarrollo propio: Las formas más comunes de ataques a los sistemas de IA se facilitan mediante el uso de servicios comerciales que ofrecen soporte para el desarrollo y entrenamiento de IA, como máquinas virtuales, procesamiento de lenguaje natural, análisis predictivo y aprendizaje profundo.
- Entrenamiento adversario: La IA mejora su rendimiento mediante ciclos de retroalimentación, que le permiten ajustar sus propias variables y coeficientes con cada iteración. Es por eso por lo que el entrenamiento adversario entre sistemas de IA puede ayudar a mejorar su robustez, así como a facilitar la identificación de vulnerabilidades del sistema.
- Monitoreo paralelo y dinámico: Los límites en la evaluación de la solidez de los sistemas de IA, la naturaleza engañosa de los ataques y las habilidades de aprendizaje de los sistemas objetivo requieren algún tipo de constante (no meramente regular, es decir, a intervalos de tiempo, sino continuo, las 24 horas del día, los siete días de la semana). El monitoreo es necesario para asegurar que la divergencia entre el comportamiento esperado y real de un sistema se capture de manera temprana y rápida, y se aborde de manera adecuada.
Uso de IA por adversarios
Los profesionales de seguridad de TI pueden utilizar la inteligencia artificial y el aprendizaje automático (ML) para hacer cumplir las buenas prácticas de ciberseguridad y reducir la superficie de ataque en lugar de perseguir constantemente actividades maliciosas. Al mismo tiempo, los atacantes patrocinados por gobiernos, las bandas cibernéticas delictivas y los ciberdelincuentes pueden emplear esas mismas técnicas de inteligencia artificial para derrotar las defensas y evitar la detección.
A medida que la IA madura y se mueve cada vez más al espacio de la ciberseguridad, las empresas deberán protegerse contra las posibles desventajas de esta nueva y emocionante tecnología:
- El aprendizaje automático y la inteligencia artificial pueden ayudar a protegerse contra los ciberataques, pero los piratas informáticos pueden frustrar los algoritmos de seguridad al apuntar a los datos con los que entrenan y las banderas de advertencia que buscan.
- Los piratas informáticos también pueden utilizar la inteligencia artificial para romper las defensas y desarrollar malware mutante que cambia su estructura para evitar ser detectado.
- Sin grandes volúmenes de datos y eventos, los sistemas de IA ofrecerán resultados inexactos y falsos positivos.
- Si la manipulación de datos no se detecta, las organizaciones tendrán dificultades para recuperar los datos correctos que alimentan sus sistemas de inteligencia artificial, con consecuencias potencialmente desastrosas.
Resumen
En los últimos años, la IA ha surgido como tecnología necesaria para aumentar los esfuerzos de los equipos de seguridad de la información humana. Dado que los humanos ya no pueden escalar para proteger adecuadamente la superficie dinámica de ataque empresarial, la inteligencia artificial proporciona un análisis muy necesario y una identificación de amenazas sobre las que los profesionales de la ciberseguridad pueden actuar para reducir el riesgo de violación y mejorar la postura de seguridad. En seguridad, la IA puede identificar y priorizar el riesgo, detectar instantáneamente cualquier malware en una red, guiar la respuesta a incidentes y detectar intrusiones antes de que comiencen.
La IA permite que los equipos de ciberseguridad formen poderosas asociaciones entre humanos y máquinas que amplían los límites de nuestro conocimiento, enriquecen nuestras vidas e impulsan la ciberseguridad de una manera que parece mayor que la suma de sus partes.