El futuro de la IA en el desarrollo de soluciones de ciberseguridad

- La tecnologÃa de inteligencia artificial puede mejorar las capacidades de detección, protección y respuesta ante ciberamenazas
Hillstone Networks, proveedor lÃder de soluciones de seguridad de red y gestión de riesgos, comparte la importancia de utilizar soluciones de ciberseguridad; basadas en Inteligencia Artificial, asà como su visión del futuro de esta tecnologÃa y los beneficios que puede aportar en la lucha contra las amenazas cibernéticas.
En términos de seguridad de la red, el uso de la tecnologÃa de inteligencia artificial ha madurado mucho y ha proliferado en la industria de la ciberseguridad. Tal es el caso de PCA o análisis de componentes principales; el cual puede identificar automáticamente las caracterÃsticas de uso de las APIs para descubrir vulnerabilidades de dÃa cero. Otros métodos para aprovechar la IA son el uso de redes neuronales recurrentes para identificar vulnerabilidades de programas binarios; la agrupación de gráficos para permitir la detección de bots basada en algoritmos generadores de dominio (DGA), el perceptrón multicapa (MLP) para detectar tráfico de red anormal, etc.
Flujos de trabajo y soluciones de seguridad
Aunque la IA no está avanzada hasta el punto de funcionar de forma autónoma, puede mejorar en gran medida los flujos de trabajo de seguridad; renunciando a las tareas más mundanas y repetitivas de los equipos de seguridad, permitiéndoles, de esta manera; centrar sus esfuerzos en cuestiones más crÃticas para el negocio que requerirÃan inteligencia humana.Â
Bajo este escenario Hillstone Networks considera que a lo largo del año más proveedores dedicarán más recursos a la investigación en profundidad; sobre cómo la tecnologÃa de inteligencia artificial puede mejorar las capacidades de detección, protección y respuesta de sus productos.
Asimismo se incrementará el uso de redes neuronales profundas para extraer automáticamente las caracterÃsticas de los datos en bruto del lado de la red y del lado del host. Esto ayudará a mitigar la dependencia de los expertos en seguridad para extraer las caracterÃsticas de los datos, que pueden automatizarse. Como resultado, los expertos en seguridad podrán emplear su tiempo en tareas más estratégicas y urgentes.
Dado que la metodologÃa de los ataques de caja negra se encuentra todavÃa en una fase temprana de desarrollo, en la actualidad no existe un método fiable para juzgar el rendimiento de los modelos de aprendizaje automático.
Además, se debe considerar que el marco general de las redes neuronales profundas necesita una inspección más profunda.
Por último, la tecnologÃa de detección de amenazas basada en el modelo de redes neuronales gráficas merece atención. Un modelo de red neuronal gráfica (GNN) puede aprender de los datos estructurados en forma de gráfico, a diferencia de los datos tradicionales más lineales. Al aprender los patrones de flujo de los ataques, el modelo GNN puede detectar dinámicamente los ataques incluso cuando modifican intencionadamente; el tamaño de los paquetes y los tiempos de llegada para despistar a los métodos de detección tradicionales.