Cómo aprovechar la IA para maximizar su ciberseguridad
La IA ha sido utilizada en aplicaciones de seguridad durante años, en particular monitoreando SIEMS y esfuerzos de orquestación para asegurar sistemas durante un ataque. Sin embargo, con innovaciones continuas como la Analítica de Comportamiento del Usuario (UBA por sus siglas en inglés), el uso de la IA en ciberseguridad irá mucho más allá.
Las aplicaciones potenciales de la IA en seguridad son tan amplias como los usos de la computación en la nube para los negocios en general. En este blog, echaremos un vistazo rápido a algunas de las últimas formas en que puedes utilizar la IA para maximizar la ciberseguridad.
IA para Investigación
Aunque algunos de nosotros podríamos ser reacios a admitirlo, los profesionales de seguridad no lo saben todo. (Bueno… aún no). La investigación es una forma en que la IA puede ayudar a mantener la seguridad. Puedes comenzar a trabajar con una nueva tecnología con la que no estés familiarizado, como:
- Desarrolladores que introducen una nueva forma de construir una base de datos
- Integración de API nueva
- Gestión de tokens
En tales casos, la IA puede ser una herramienta de investigación tremendamente útil, dependiendo de cómo hagas las preguntas. La IA entregará muchas respuestas, a partir de las cuales puedes comenzar a construir un entendimiento. Los profesionales de seguridad necesitan pensar en las cosas de manera que respondan a amenazas. A medida que comiences a profundizar y entender algo, la IA puede ayudar a llenar los vacíos.
Facilitar el Compartir de Conocimientos
El término «hacker» está típicamente asociado con una persona que usa la tecnología para cometer delitos. Más precisamente, esto se conoce como un hacker «black hat» (sombrero negro), mientras que «white hat hackers» (sombrero blanco) usan sus capacidades para descubrir fallas de seguridad y ayudar a proteger a las organizaciones de hackers peligrosos, como lo describe Kaspersky. Frustrar a los criminales involucra hacking de sombrero blanco, y para ser bueno en eso, debes pensar como un hacker de sombrero negro.
Aunque los profesionales de seguridad pueden tomar acciones similares a las de los criminales, nos adherimos a estándares éticos. Defendemos eso y confiamos en otros cuando discutimos amenazas. La comunidad de seguridad comparte conocimientos, como qué ataques hemos visto, y la IA generativa lo está haciendo todo más fácil. Los Modelos de Lenguaje Grandes (LLM por sus siglas en inglés) pueden sintetizar un resumen a partir de documentos para ayudarnos a entender el contenido. La IA también puede ayudarnos a mejorar respuestas y decisiones al entrenar modelos para acciones con grandes conjuntos de datos.
Google’s Secure AI
El Marco Seguro de IA de Google Ecoa las Mejores Prácticas de TI
El 8 de junio de 2023, Google presentó el Marco Seguro de IA (SAIF por sus siglas en inglés), un marco conceptual para sistemas de IA seguros con los siguientes seis elementos principales:
- Expandir bases de seguridad sólidas al ecosistema de IA
- Extender la detección y respuesta para incluir la IA en el universo de amenazas de una organización
- Automatizar defensas para mantener el ritmo con las amenazas existentes y nuevas
- Harmonizar controles a nivel de plataforma para asegurar una seguridad consistente en toda la organización
- Adaptar controles para ajustar mitigaciones y crear ciclos de retroalimentación más rápidos para el despliegue de IA
- Contextualizar riesgos del sistema de IA en los procesos comerciales circundantes
Me llama la atención cómo estos principios son consistentes con las mejores prácticas generales de TI. Las organizaciones necesitan una vista integral de toda su infraestructura para entender cómo los cambios en una área impactan a otras. La retroalimentación rápida es necesaria para satisfacer las necesidades de los usuarios. Se requieren automatizaciones para mantener el ritmo, y todo requiere una base sólida para comenzar.
Proteger la Tecnología de IA y Usar la IA para Proteger la Tecnología
SAIF está diseñado para ayudar a mitigar riesgos específicos de sistemas de IA. Según Google, el marco te ayudará a proteger la tecnología que respalda los avances de IA, para que cuando los modelos de IA se implementen, sean seguros por defecto.
Las herramientas de IA también se pueden usar para mejorar la seguridad en otras áreas. La Alianza de Seguridad en la Nube (CSA por sus siglas en inglés) examinó específicamente a ChatGPT en «Implicaciones de Seguridad de ChatGPT», un nuevo documento técnico que «busca discutir las implicaciones de seguridad en cuatro dimensiones:
- Cómo los actores malintencionados pueden usarlo para crear ciberataques nuevos y mejorados
- Cómo los defensores pueden usarlo para mejorar los programas de ciberseguridad
- Cómo puede ser atacado directamente para producir resultados incorrectos o de otra manera malos
- Cómo habilitar que el negocio lo use de manera segura y responsable»
CSA afirma que el potencial de ChatGPT plantea preguntas críticas sobre la delgada línea entre el uso ético y malintencionado de estas tecnologías. Personalmente, nunca sentí que esa línea fuera «delgada», pero el hecho sigue siendo que ChatGPT, al igual que otras herramientas de IA, tiene capacidades asombrosas que están al alcance de actores malintencionados, así como de profesionales de ciberseguridad. Por ejemplo, identificar vulnerabilidades para remediar es bastante equivalente a identificar vectores de ataque para explotar, por lo que veo la razón para describirlo como una «línea delgada». Son dos caras de la misma moneda.
CSA profundiza en cómo los sistemas impulsados por IA pueden ser explotados en diferentes aspectos de los ciberataques, incluyendo:
- Enumeración
- Asistencia para establecer un punto de apoyo
- Reconocimiento
- Phishing
- Generación de código polimórfico
Por ejemplo, «ChatGPT puede ser utilizado de manera efectiva para identificar rápidamente las aplicaciones más prevalentes asociadas con tecnologías o plataformas específicas. Esta información puede ayudar a comprender las superficies de ataque potenciales y las vulnerabilidades dentro de un entorno de red dado».
CSA clasifica la asistencia para establecer un punto de apoyo como de riesgo medio, así como su impacto y probabilidad. «Al solicitar a ChatGPT que examine vulnerabilidades dentro de un fragmento de código de más de 100 líneas, identificó con precisión una vulnerabilidad de inclusión de archivo.» La IA detectó con éxito una variedad de problemas diferentes en consultas adicionales.
Similitudes entre Ofertas de IA Generativa
Si bien ChatGPT puede estar dominando los titulares por ahora, hemos visto anteriormente a Google tomar un enfoque medido y estructurado para desarrollar nuevas tecnologías y terminar ofreciendo el mejor producto. Por ejemplo, las aplicaciones de productividad originales de «G Suite» tenían enfoques únicos para la seguridad que no requerían una tonelada de sobrecarga.
La oferta principal de IA generativa para consumidores de Google, Bard, se basa en el nuevo modelo de lenguaje PaLM 2 de Google. Algunos de los usos variados de Bard incluyen sugerencias de escritura, resúmenes de textos largos, depuración de código y la creación de hojas de cálculo de Google y fórmulas de hojas de cálculo. Aunque Bard no ha recibido la cobertura mediática de ChatGPT, las herramientas tienen capacidades similares, como escribir código que podría utilizarse para ejecutar ataques. Espero que gran parte del análisis de CSA sobre ChatGPT también se aplique a Bard.
Apoyo para Aprovechar la IA y Mantenerse un Paso Adelante de las Amenazas Persistentes
Incluso con nuevas innovaciones en IA, el hecho sigue siendo que no hay un solo servicio o solución que haga que cualquier organización sea a prueba de hackeos. Wursta ofrece una variedad de servicios, como CISO Virtual y Evaluación de Riesgos de Seguridad en la Nube, para ayudarte a dar los pasos necesarios para mantenerte un paso adelante de las amenazas persistentes. Además, Wursta pronto lanzará talleres para ayudar a nuestros clientes a explorar las infinitas posibilidades de la IA y maximizar el uso de la IA para beneficiar a su organización. Contáctanos para obtener más información.
Even with new AI innovations, the fact remains that there’s no one service or solution that will make any organization hack-proof. Wursta offers a variety of services, such as Virtual CISO and Security & Cloud Risk Assessment to help you take the steps needed to stay ahead of persistent threats. Additionally, Wursta will soon be launching workshops to help our clients explore the endless possibilities of AI and maximize the use of AI to benefit their organization. Contact us to learn more.