El papel de la IA y el ML en la ciberseguridad.

El panorama de las ciberamenazas está en constante evolución. El predominio de las herramientas de inteligencia artificial (IA) y aprendizaje automático (ML) está conduciendo a una carrera armamentista de ciberseguridad. Tanto los atacantes como los defensores se están dando cuenta del potencial de la IA y el ML para mejorar sus capacidades. Mientras los atacantes se preparan para usar IA y ML para identificar vulnerabilidades y lanzar ataques sofisticados, los defensores aprovechan estas tecnologías para detectar y prevenir estos ataques.

Contenido

Y así comienza…

La IA y el ML se están incluyendo rápidamente en los conjuntos de herramientas utilizados por los atacantes para automatizar y orquestar varias etapas de los marcos tradicionales de ciberataque: esfuerzos de reconocimiento, selección de objetivos, armamento, entrega de carga útil, explotación, instalación, comando y control, y exfiltración.

AI y ML también se pueden usar para lanzar ataques dirigidos y personalizados utilizando correos electrónicos de phishing extremadamente convincentes que pueden engañar incluso a los usuarios más atentos para que hagan clic en enlaces maliciosos o descarguen archivos adjuntos infectados. *En caso de que se haya perdido nuestra publicación de blog anterior, hablamos un poco sobre cómo ChatGPT podría usarse para facilitar el phishing para obtener información (Técnica MITRE ID: T1598 – Ingeniería social).

Es concebible que los atacantes utilicen el aprendizaje automático para crear malware sofisticado que imite software benigno o active falsos negativos en el software antivirus. Los investigadores de seguridad han demostrado que los atacantes pueden usar AI y ML para crear sofisticados polimórfico Variedades de malware que pueden evadir las medidas de seguridad mediante la mutación programática y repetida. Los programas tradicionales de detección de malware basados ​​en firmas serían ineficaces para identificar estas amenazas.

Y otro uso más de AI y ML por parte de atacantes emprendedores es cometer fraude. Los algoritmos de aprendizaje automático se pueden usar para generar o manipular datos de transacciones, como crear transacciones de tarjetas de crédito falsas. Estas transacciones fraudulentas pueden ser difíciles de distinguir de las legítimas, causando pérdidas financieras directas a individuos y organizaciones.

¿Nada es seguro?

A medida que la IA y el ML se introducen en muchas organizaciones, crean vectores de ataque adicionales en los que se desarrollan marcos de ataque especializados para comprender las tácticas adversarias dirigidas a estas tecnologías. Adversarial Machine Learning es una técnica en la que los atacantes usan algoritmos ML para crear entradas maliciosas o para manipular los datos de entrenamiento utilizados por otros sistemas de Machine Learning. Las implicaciones aquí son profundas.

Por ejemplo, los investigadores han demostrado cómo se puede utilizar el aprendizaje automático adverso para manipular los algoritmos de detección de objetos utilizados por los vehículos autónomos. Los ataques aquí pueden incluir agregar ruido cuidadosamente diseñado para hacer que los componentes de detección identifiquen erróneamente las señales de alto e incluso que los vehículos ignoren a los peatones.

Los CAPTCHA son una medida de seguridad tradicional diseñada para evitar ataques automatizados al requerir que los usuarios completen una tarea manual que es fácil para los humanos pero difícil para las máquinas, a saber, identificar texto distorsionado. Sin embargo, los investigadores han utilizado el aprendizaje automático contradictorio para crear algoritmos que pueden descifrar los CAPTCHA con un alto nivel de precisión.

Buen robot nosotros

¡No hace falta decir que defender los sistemas de información en la era de la inteligencia artificial y el aprendizaje automático ahora es mucho más interesante! Afortunadamente, los defensores también utilizan técnicas de IA y ML para detectar y prevenir ataques cibernéticos.

Uno de los casos de uso más grandes para AI y ML en ciberseguridad es la capacidad de analizar grandes cantidades de datos e identificar patrones que serían imposibles de detectar para los humanos. La IA y el ML se pueden utilizar para detectar anomalías o actividades sospechosas en procesos de aplicaciones o sistemas, solicitudes/respuestas o tráfico de red que pueden indicar que se está produciendo un ataque cibernético. Las plataformas de User Entity and Behavior Analytics (UEBA) comúnmente usan AI y ML para analizar registros e identificar inicios de sesión improbables o fallidos, intentos de acceso no autorizado y otras actividades sospechosas.

Dado que AI y ML se utilizan para evadir las medidas de seguridad tradicionales, es evidente que también se pueden utilizar para mejorarlas. Mediante el uso de AI y ML, el software antivirus y los firewalls pueden aprender de ataques anteriores y adaptarse a nuevas amenazas en tiempo real. Los programas antivirus sofisticados, por ejemplo, pueden usar AI y ML para detectar y analizar rápidamente el comportamiento de un software malicioso para crear un perfil de ataque que pueda usarse para detectar actividades similares, lo que podría bloquear actividades posteriores de naturaleza similar. Este tipo de protección va mucho más allá de la firma-detecciones basadas en software antivirus tradicional.

Los defensores usan cada vez más IA y ML para mejorar las capacidades de las plataformas de Orquestación, Automatización y Respuesta de Seguridad (SOAR) al proporcionar análisis avanzados para ayudar en la toma de decisiones o simplemente reducir el tiempo y el esfuerzo necesarios para las investigaciones manuales. Por ejemplo, el aprendizaje automático se puede utilizar para clasificar alertas y determinar cuáles requieren atención inmediata. También se puede utilizar para analizar incidentes pasados ​​y sus acciones de respuesta para automatizar tareas repetitivas que podrían mejorar la velocidad, precisión y eficiencia de los procesos de respuesta a incidentes.

Nuevo mundo valiente

El papel de la inteligencia artificial y el aprendizaje automático en la ciberseguridad está evolucionando rápidamente, pero es seguro decir que no va a desaparecer. Tanto los atacantes como los defensores se están dando cuenta del potencial de estas tecnologías para mejorar sus capacidades, lo que está impulsando a todos a cambiar con los tiempos.

Para obtener más información sobre IA y ML, asegúrese de consultar los programas que se ofrecen a través de la Escuela de IA de Udacity.

¡Explora el futuro! Echa un vistazo al programa Introducción a los coches autónomos de Udacity.

Para obtener más información sobre cómo los profesionales de la seguridad analizan las debilidades de una organización frente a las ciberamenazas, consulte el programa Udacity Security Analyst Nanodegree.

Examine los métodos que utilizan los piratas informáticos para perpetrar ataques cibernéticos en el Ethical Hacker Nanodegree de Udacity.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *