Piden una nueva postura de seguridad
AI Security Posture Management (AISPM) is an emerging discipline focused on securing AI agents, their memory, external interactions, and behavior in real-time.
A diferencia de los sistemas estáticos, los entornos impulsados por la IA introducen riesgos completamente nuevos: salidas alucinadas, inyecciones rápidas, acciones autónomas y interacciones en cascada entre agentes.
Estos no son sólo extensiones de problemas existentes, son desafíos completamente nuevos que heredan herramientas de postura de seguridad como DSPM (Data Security Posture Management) o CSPM (Cloud Security Posture Management).were never designed to solve.
AISPM existe porque los sistemas de IA no solostoreotransmitLos datos - ellosgenerateNuevos contenidos, hacerdecisionsY el triggerreal-world actionsLa seguridad de estos sistemas requiere repensar cómo monitorizamos, aplicamos y auditamos la seguridad, no a nivel de infraestructura, sino a nivel de razonamiento y comportamiento de la IA.
Si buscas una profundidad más profundaCuáles son las identidades de las máquinasy cómo los agentes de IA se ajustan a los modelos modernos de control de acceso, lo cubrimos extensamente en “¿Qué es una identidad de máquina? Comprender el control de acceso de la IAEste artículo, sin embargo, se centra en la siguiente capa: asegurarhow AI agents operateNo sólowho they are.
¿Qué es una identidad de máquina? Comprender el control de acceso de la IAÚnete a nosotros mientras explicamos lo que hace que AISPM sea una evolución distinta y necesaria, explore lafour unique perimetersde la seguridad de la IA, y describe cómo las organizaciones pueden empezar a adaptar su postura de seguridad a un mundo impulsado por la IA.
Porque los riesgos que introduce AI ya están aquí,and they’re growing fast.
¿Qué hace que la seguridad sea única?
La seguridad de los sistemas de IA no se trata sólo de adaptar las herramientas existentes, sino de enfrentar categorías de riesgo completamente nuevas que no existían hasta ahora.
Como se mencionó anteriormente,AI agents don’t just execute code—they generate content, make decisions, and interact with other systems in unpredictable ways.Esa impredecibilidad introduce vulnerabilidades que los equipos de seguridad apenas están empezando a entender.
AI hallucinations, por ejemplo -las salidas falsas o fabricadas- no son sólo inconvenientes; puedencorrupt data, expose sensitive information, or even trigger unsafe actionsSi no es capturado.
combinado con el creciente uso deretrieval-augmented generation (RAG) pipelines, donde los sistemas de IA extraen información de vastas almacenes de memoria, y la superficie de ataque se expande dramáticamente.
Más allá de los riesgos de datos,AI systems are uniquely susceptible to prompt injection attacks, donde los actores maliciosos elaboran entradas diseñadas para secuestrar el comportamiento de la IA.the SQL injection problem, but harder to detect and even harder to containque funciona dentro del lenguaje natural.
Quizás la parte más difícil de esto es queAI agents don’t operate in isolationDesencadenan acciones, llaman APIs externos, y a veces interactúan con otros agentes de IA, creandocomplex, cascading chains of behaviorque son difíciles de predecir, controlar o revisar.
Las herramientas tradicionales de postura de seguridad nunca fueron diseñadas para este nivel de autonomía y comportamiento dinámico.AISPM is not DSPM or CSPM for AIEs un modelo completamente nuevo, enfocado en asegurar el comportamiento de la IA y la toma de decisiones.
Los cuatro perímetros de control de acceso de los agentes de IA
La seguridad de los sistemas de IA no se limita a gestionar el acceso a los modelos, sino que requiere controlar todo el flujo de información y decisiones a medida que los agentes de IA operan.Desde lo que se alimentan, hasta lo que recogen, hasta cómo actúan y lo que emiten, cada fase introduce riesgos únicos.
Como con cualquier sistema complejo, el control de acceso se convierte en una superficie de ataque amplificada en el contexto de la IA.Cuatro perímetros distintos— cada uno actuando como punto de control de posibles vulnerabilidades:
Cuatro perímetros distintos1. Prompt Filtering — Controlling What Enters the AI
Cada interacción de IA comienza con una prompt, y las prompt son ahora una superficie de ataque. Ya sea de usuarios, otros sistemas, o agentes de IA de arriba,unfiltered prompts can lead to manipulation, unintended behaviors, or AI "jailbreaks".
El filtro prompt garantiza que sólo las entradas validadas y autorizadas lleguen al modelo.
- Bloquear entradas maliciosas diseñadas para desencadenar comportamientos inseguros
- Implementar políticas de nivel prompt basadas en roles, permisos o contexto de usuario
- Validación dinámica de las entradas antes de la ejecución
Por ejemplo, restringir ciertos tipos de prompt para usuarios no administradores o requerir cheques adicionales para prompt que contengan operaciones sensibles como consultas de base de datos o transacciones financieras.
Protección de datos RAG - Seguridad de la memoria de IA y la recuperación del conocimiento
Los pipelines de generación aumentada (RAG), donde los agentes de IA extraen datos de bases de conocimiento externas o bases de datos vectoriales, añaden una poderosa capacidad, pero tambiénexpand the attack surfaceAISPM debe controlar:
- ¿Quién o qué puede acceder a fuentes de datos específicas
- Qué datos se recuperan en base a las políticas de acceso en tiempo real
- Filtración post-recovery para eliminar la información sensible antes de que llegue al modelo
Sin este perímetro, los agentes AI corren riesgoretrieving and leaking sensitive dataotraining themselves on information they shouldn’t have accessedEn primer lugar.
“Construir aplicaciones de IA con seguridad de nivel empresarial utilizando RAG y FGAOfrece un ejemplo práctico de protección de datos de RAG para el cuidado de la salud.
Construir aplicaciones de IA con seguridad de nivel empresarial utilizando RAG y FGA3. Secure External Access — Governing AI Actions Beyond the Model
Los agentes de IA no se limitan al razonamiento interno. Cada vez más,actDesencadenar llamadas de API, ejecutar transacciones, modificar registros o enlazar tareas entre sistemas.
AISPM debe hacer cumplirstrict controls over these external actions:
- Define exactamente qué operaciones cada agente de IA está autorizado a realizar
- Seguir cadenas "en nombre de" para mantener la responsabilidad por las acciones iniciadas por los usuarios pero ejecutadas por los agentes
- Insertar pasos de aprobación humana cuando sea necesario, especialmente para acciones de alto riesgo como compras o modificaciones de datos
Esto evita que los agentes de IA actúen fuera de su alcance previsto o creen efectos descendentes no deseados.
4. Response Enforcement — Monitoring What AI Outputs
Aunque todas las entradas y acciones estén estrictamente controladas,AI responses themselves can still create risk, alucinando hechos, exponiendo información sensible o produciendo contenido inapropiado.
La aplicación de la Respuesta significa:
- Escanear las salidas para la conformidad, la sensibilidad y la adecuación antes de entregarlas
- Aplicar filtros de salida basados en roles para que solo los usuarios autorizados vean cierta información
- Garantizar que la IA no leche involuntariamente conocimientos internos, credenciales o PII en su respuesta final
En los sistemas de IA, la salida no es sólo información.it’s the final, visible actionGarantizarlo no es negociable.
¿Por qué son importantes estos perímetros?
Juntos, estos cuatro perímetros forman la base deAISPMEllos garantizan queevery stage of the AI’s operation is monitored, governed, and secured—de la entrada a la salida, del acceso a la memoria a la acción en el mundo real.
Tratar la seguridad de la IA como un flujo de extremo a extremo, no sólo una verificación estática del modelo, es lo que distingue a AISPM de la gestión de postura heredada.Porque cuando los agentes de IA razonan, actúan e interactúan dinámicamente, la seguridad debe seguirlos cada paso del camino.
Mejores prácticas para el AISPM efectivo
Como ya podemos ver, la seguridad de los sistemas de IA requiere una mentalidad diferente: una que trataAI reasoning and behaviorcomo parte de la superficie de ataque, no sólo la infraestructura en la que se ejecuta.AISPMse basa en algunos principios clave diseñados para responder a este desafío:
Seguridad intrínseca: guardias dentro del flujo de IA
La seguridad de la inteligencia artificial no puede ser reforzada; debe serbaked into the AI’s decision-making loop-Filtrar llamadas, restringir el acceso a la memoria, validar las llamadas externas y escanear las respuestas en tiempo real.Los envases externos como los firewalls o las escenas de código estático no protegen contra los agentes de IA que razonan su camino en acciones no intencionadas.
The AI itself must operate inside secure boundaries.
Monitorización continua – Evaluación de riesgos en tiempo real
Las decisiones se toman en tiempo real, lo que significa quecontinuous evaluationEs crítico
Los sistemas AISPM deben rastrear el comportamiento del agente a medida que se desarrolla, recalcular el riesgo basado en nuevos contextos o entradas, y ajustar los permisos o desencadenar intervenciones en medio de la ejecución si es necesario.
Las revisiones estáticas de postura o las auditorías periódicas no atraparán problemas a medida que surgen.AI security is a live problem, so your posture management must be live, too.
Cadea de Custodia y Auditoría
Los agentes de IA tienen la capacidad de encadenar acciones, llamando APIs, desencadenando otros agentes o interactuando con los usuarios, todo esto requiere una auditoría extremadamente granular.
El AISPM debe:
- Recordar qué acción se realizó
- ¿Quién o qué lo desencadenó
- Conservar la trayectoria completa "en la mitad" de regreso al ser humano o sistema que originó la acción.
Esta es la única manera de mantener la responsabilidad y la trazabilidad cuando los agentes de IA actúan de forma autónoma.
Fronteras de delegación y TTL de confianza
Los sistemas de IA no solo actúan - ellosdelegatetareas a otros agentes, servicios o APIs. Sin límites adecuados, la confianza puede cascarse sin control, creando riesgos de interacciones AI-AI sin control.
AISPM debe hacer cumplirstrict scopingde autoridad delegada, Time-to-live (TTL) en confianza o acceso delegado, previniendo cadenas de permisos de larga duración que se vuelvan imposibles de revocar, y permitiendohuman review checkpointsDelegaciones de alto riesgo.
Puntos de Control de Revisión HumanaValidación criptográfica entre agentes de IA
A medida que crecen los ecosistemas,agents will need to trust—but verify—other agents' claimsAISPM debe prepararse para este futuro apoyandocryptographic signaturessobre las solicitudes y respuestas de IA, así como los registros prohibidos que permiten a los agentes -y a los humanos- verificar la fuente e integridad de cualquier acción en la cadena.
Así es como los sistemas AI acabaránaudit and regulate themselvesEspecialmente en entornos multiagentes.
Herramientas y estándares emergentes para AISPM
Si bien AISPM sigue siendo una disciplina emergente, estamos empezando a ver herramientas y marcos prácticos que ayudan a poner sus principios en acción, permitiendo a los desarrolladores construir sistemas de IA con guarniciones de seguridad cocidas en el flujo de decisiones y acciones de IA.
Integración de Framework para Control de Acceso
Frameworks de desarrollo comoLenguasyLongo flujoempiezan a apoyar integraciones que añadenidentity verification and fine-grained policy enforcementdirectamente en los flujos de trabajo de IA. Estas integraciones permiten a los desarrolladores:
LenguasLongo flujo- Autentica a los agentes de IA utilizando tokens de identidad antes de permitir acciones
- Inserir controles de permisos dinámicos en medio del flujo de trabajo para detener el acceso no autorizado a los datos o las operaciones no seguras
- Aplicar la autorización de grano fino a las tuberías de generación aumentada de recuperación (RAG), filtrando lo que la IA puede recuperar basándose en los permisos de usuario o agente en tiempo real.
Estas capacidades van más allá de la validación básica de las entradas, permitiendo conductas seguras y conscientes de la identidad en las que los agentes de IA deben demostrar lo que están autorizados a hacer en cada paso crítico.
Validación de datos segura y acceso estructurado
Frameworks diseñados para el desarrollo de aplicaciones de IA cada vez más apoyadosstructured data validation and access control enforcementAl combinar la validación de entrada con las capas de autorización, los desarrolladores pueden:
- Garantizar que sólo los flujos de datos correctamente estructurados y permitidos entran en los modelos de IA
- Implementar políticas de acceso basadas en roles, atributos o relaciones de forma dinámica
- Mantener un seguimiento audible de cada decisión de acceso que toma la IA
Esto ayuda a proteger los sistemas contra las filtraciones accidentales de datos y la manipulación intencional de la inteligencia artificial al asegurarse de que opera estrictamente dentro de sus límites definidos.
Estandarización de las interacciones AI-sistema seguras
Estándares emergentes como elModel Context Protocol (MCP)Proponer formas estructuradas para que los agentes de IA interactúen con herramientas externas, APIs y sistemas.
- Comprobar permisos explícitos antes de que los agentes de IA puedan desencadenar operaciones externas
- Asignación de identidad de máquina a agentes de IA, abarcando sus capacidades
- Reglas de autorización en tiempo real en los puntos de interacción, asegurando que las acciones permanezcan controladas y rastreables
Esto es crucial para mantener las acciones impulsadas por la IA, como llamadas de API, consultas de bases de datos o transacciones financieras.accountable and auditable.
Mirando hacia adelante: El futuro de AISPM
La rápida evolución de los agentes de IA ya está empujando los límites de lo que los modelos de seguridad tradicionales pueden manejar.A medida que los sistemas de IA crecen más autónomos, capaces de razonar, encadenar acciones e interactuar con otros agentes.AISPM will become foundationalNo es opcional.
Un cambio importante en el horizonte es el aumento derisk scoring and trust propagation modelsAl igual que los usuarios humanos se asignan niveles de confianza basados en el comportamiento y el contexto, los agentes de IA necesitaránEscala de confianza dinámicaque influyen en lo que se les permite acceder o desencadenar, especialmente en entornos multiagentes donde la confianza no controlada podría escalar los riesgos rápidamente.
Escala de confianza dinámicaAISPM desplaza la seguridad hacia arriba en el proceso de toma de decisiones de la IA y controla el comportamiento en cada punto crítico.
A medida que la IA sigue impulsando la próxima ola de aplicaciones,AISPM will be critical to maintaining trust, compliance, and safetyLas organizaciones que lo abrazan temprano podrán innovar con la IA sin comprometer la seguridad.
Leer más sobre cómo Permit.io maneja la colaboración de IA segura a través de una puerta de permisosAquí.
Si tiene alguna pregunta, asegúrese de unirse a nuestroComunidad Slack, donde miles de desarrolladores están construyendo e implementando la autorización.
Comunidad Slack