Herramientas de IA para pentesting: CAI episodio 1/n

Blog

Estimados amigos de Inseguros !!! Hoy vamos a hablar sobre herramientas de IA para hacking.

Hoy quiero hablaros de CAI. Caí no es Cadiz para un gaditano ( redoble de tambor) xDDDD

Y no, no me refiero a “otra IA más” de esas que contestan bonito, pero luego no hacen nada útil. CAI es un proyecto OpenSource y empresarial, impulsado por varios miembros del equipo españoles.

El propósito de hablaros de esta herramienta, no es en concreto esta herramienta xD me explico: quiero evaluar todas estas tools que ayudan con los procesos de auditoría, que hacen bug bounty, y así aprender un poco más de la IA. Puede que luego en tu empresa lo utilices o no, pero creo que da un marco de conocimiento general muy aplicable a otras «funcionalidades» de la IA.

Lo que me ha parecido interesante de CAI es que no intenta venderte solo un LLM para ciberseguridad. Lo que plantea es algo más práctico: una forma de organizar uno o varios modelos de lenguaje para que trabajen dentro de un flujo técnico real. Según su documentación, CAI se define como un framework de Cybersecurity AI, y su arquitectura se basa en agentes conectados a LLMs, herramientas, mecanismos de delegación y capas de control.

Dicho en castellano normal: tú le pides algo al sistema. Ese “algo” lo recibe un agente. El agente usa un LLM para pensar qué tiene que hacer. Pero el LLM no hace el trabajo técnico por sí solo. El LLM razona. Quien ejecuta de verdad son las tools. La arquitectura oficial muestra ejemplos como comandos Linux, búsquedas web, ejecución de código y túneles SSH.

Y aquí está la diferencia importante. Un chatbot normal te devuelve texto. CAI intenta que el flujo sea más parecido a esto: le pides una tarea, el agente la entiende, consulta el LLM, decide qué herramienta usar, ejecuta algo, lee el resultado, vuelve a razonar y decide si sigue, si cambia de estrategia o si termina. Es decir, no se queda en “te explico lo que haría”, sino en “pienso, actúo, reviso y continúo”. La propia documentación describe ese comportamiento con un enfoque de razonamiento más acción.

Además, no todo tiene por qué pasar por un único agente. CAI permite que varios agentes colaboren. Uno puede encargarse de planificar, otro de ejecutar ciertas tareas, y otro de revisar o refinar el trabajo. También contempla patrones más jerárquicos o más distribuidos, según cómo quieras montar el sistema.

A mí esto me parece lo realmente potente. No porque “la IA hackee sola”, que es la típica frase que queda muy bien en redes. Sino porque intenta resolver algo más serio: cómo haces que un LLM deje de ser solo una caja que responde texto y pase a formar parte de un proceso técnico con orden, herramientas, trazabilidad y cierto control. La arquitectura también incorpora mecanismos de tracing para registrar lo que pasa y guardrails para reducir problemas como prompt injection o ejecuciones peligrosas.

Así que, si tuviera que resumir CAI en una frase, diría esto:

CAI es una capa de orquestación para que uno o varios LLM piensen sobre tareas de ciberseguridad y disparen herramientas reales dentro de un flujo controlado.

Y eso, sinceramente, sí me parece más interesante que muchas demos vacías de “IA para ciberseguridad” que realmente no hacen nada más allá de escribir texto bonito.

En próximos capítulos seguiremos con estas “cosas” que tanto nos “atormentan” xD

Y no se si lo sabes, pero pronto crecerá el catálogo de cursos, con hacking ético y algunas sorpresas más… estate atento en la url de los cursos.

Gracias por leerme !!!

Autor

Profesor y consultor de ciberseguridad. Microsoft MVP.

+ 25 años de experiencia

Compartir artículo :

Otros artículos

calendly
×
Hola 👋, bienvenido a SeguridadSI
Reserva una llamada de 15 minutos para resolver cualquier consulta
Scroll al inicio