Piden una nueva postura de seguridad AI Security Posture Management (AISPM) is an emerging discipline focused on securing AI agents, their memory, external interactions, and behavior in real-time. A diferencia de los sistemas estáticos, los entornos impulsados por la IA introducen riesgos completamente nuevos: salidas alucinadas, inyecciones rápidas, acciones autónomas y interacciones en cascada entre agentes. Estos no son sólo extensiones de problemas existentes, son desafíos completamente nuevos que heredan herramientas de postura de seguridad como DSPM (Data Security Posture Management) o CSPM (Cloud Security Posture Management). . were never designed to solve AISPM existe porque los sistemas de IA no solo o Los datos - ellos Nuevos contenidos, hacer Y el trigger La seguridad de estos sistemas requiere repensar cómo monitorizamos, aplicamos y auditamos la seguridad, no a nivel de infraestructura, sino a nivel de razonamiento y comportamiento de la IA. store transmit generate decisions real-world actions Si buscas una profundidad más profunda y cómo los agentes de IA se ajustan a los modelos modernos de control de acceso, lo cubrimos extensamente en “ Este artículo, sin embargo, se centra en la siguiente capa: asegurar No sólo . Cuáles son las identidades de las máquinas ¿Qué es una identidad de máquina? Comprender el control de acceso de la IA how AI agents operate who they are ¿Qué es una identidad de máquina? Comprender el control de acceso de la IA Únete a nosotros mientras explicamos lo que hace que AISPM sea una evolución distinta y necesaria, explore la de la seguridad de la IA, y describe cómo las organizaciones pueden empezar a adaptar su postura de seguridad a un mundo impulsado por la IA. four unique perimeters Porque los riesgos que introduce AI ya están aquí, . and they’re growing fast ¿Qué hace que la seguridad sea única? La seguridad de los sistemas de IA no se trata sólo de adaptar las herramientas existentes, sino de enfrentar categorías de riesgo completamente nuevas que no existían hasta ahora. Como se mencionó anteriormente, Esa impredecibilidad introduce vulnerabilidades que los equipos de seguridad apenas están empezando a entender. AI agents don’t just execute code—they generate content, make decisions, and interact with other systems in unpredictable ways. , por ejemplo -las salidas falsas o fabricadas- no son sólo inconvenientes; pueden Si no es capturado. AI hallucinations corrupt data, expose sensitive information, or even trigger unsafe actions combinado con el creciente uso de , donde los sistemas de IA extraen información de vastas almacenes de memoria, y la superficie de ataque se expande dramáticamente. retrieval-augmented generation (RAG) pipelines Más allá de los riesgos de datos, , donde los actores maliciosos elaboran entradas diseñadas para secuestrar el comportamiento de la IA. que funciona dentro del lenguaje natural. AI systems are uniquely susceptible to prompt injection attacks the SQL injection problem, but harder to detect and even harder to contain Quizás la parte más difícil de esto es que Desencadenan acciones, llaman APIs externos, y a veces interactúan con otros agentes de IA, creando que son difíciles de predecir, controlar o revisar. AI agents don’t operate in isolation complex, cascading chains of behavior Las herramientas tradicionales de postura de seguridad nunca fueron diseñadas para este nivel de autonomía y comportamiento dinámico. Es un modelo completamente nuevo, enfocado en asegurar el comportamiento de la IA y la toma de decisiones. AISPM is not DSPM or CSPM for AI Los cuatro perímetros de control de acceso de los agentes de IA La seguridad de los sistemas de IA no se limita a gestionar el acceso a los modelos, sino que requiere controlar todo el flujo de información y decisiones a medida que los agentes de IA operan.Desde lo que se alimentan, hasta lo que recogen, hasta cómo actúan y lo que emiten, cada fase introduce riesgos únicos. Como con cualquier sistema complejo, el control de acceso se convierte en una superficie de ataque amplificada en el contexto de la IA. — cada uno actuando como punto de control de posibles vulnerabilidades: Cuatro perímetros distintos Cuatro perímetros distintos 1. Prompt Filtering — Controlling What Enters the AI Cada interacción de IA comienza con una prompt, y las prompt son ahora una superficie de ataque. Ya sea de usuarios, otros sistemas, o agentes de IA de arriba, . unfiltered prompts can lead to manipulation, unintended behaviors, or AI "jailbreaks" El filtro prompt garantiza que sólo las entradas validadas y autorizadas lleguen al modelo. Bloquear entradas maliciosas diseñadas para desencadenar comportamientos inseguros Implementar políticas de nivel prompt basadas en roles, permisos o contexto de usuario Validación dinámica de las entradas antes de la ejecución Por ejemplo, restringir ciertos tipos de prompt para usuarios no administradores o requerir cheques adicionales para prompt que contengan operaciones sensibles como consultas de base de datos o transacciones financieras. Protección de datos RAG - Seguridad de la memoria de IA y la recuperación del conocimiento Los pipelines de generación aumentada (RAG), donde los agentes de IA extraen datos de bases de conocimiento externas o bases de datos vectoriales, añaden una poderosa capacidad, pero también AISPM debe controlar: expand the attack surface ¿Quién o qué puede acceder a fuentes de datos específicas Qué datos se recuperan en base a las políticas de acceso en tiempo real Filtración post-recovery para eliminar la información sensible antes de que llegue al modelo Sin este perímetro, los agentes AI corren riesgo o En primer lugar. retrieving and leaking sensitive data training themselves on information they shouldn’t have accessed “ Ofrece un ejemplo práctico de protección de datos de RAG para el cuidado de la salud. Construir aplicaciones de IA con seguridad de nivel empresarial utilizando RAG y FGA Construir aplicaciones de IA con seguridad de nivel empresarial utilizando RAG y FGA 3. Secure External Access — Governing AI Actions Beyond the Model Los agentes de IA no se limitan al razonamiento interno. Cada vez más, Desencadenar llamadas de API, ejecutar transacciones, modificar registros o enlazar tareas entre sistemas. act AISPM debe hacer cumplir : strict controls over these external actions Define exactamente qué operaciones cada agente de IA está autorizado a realizar Seguir cadenas "en nombre de" para mantener la responsabilidad por las acciones iniciadas por los usuarios pero ejecutadas por los agentes Insertar pasos de aprobación humana cuando sea necesario, especialmente para acciones de alto riesgo como compras o modificaciones de datos La aprobación humana Esto evita que los agentes de IA actúen fuera de su alcance previsto o creen efectos descendentes no deseados. 4. Response Enforcement — Monitoring What AI Outputs Aunque todas las entradas y acciones estén estrictamente controladas, , alucinando hechos, exponiendo información sensible o produciendo contenido inapropiado. AI responses themselves can still create risk La aplicación de la Respuesta significa: Escanear las salidas para la conformidad, la sensibilidad y la adecuación antes de entregarlas Aplicar filtros de salida basados en roles para que solo los usuarios autorizados vean cierta información Garantizar que la IA no leche involuntariamente conocimientos internos, credenciales o PII en su respuesta final En los sistemas de IA, la salida no es sólo información. Garantizarlo no es negociable. it’s the final, visible action ¿Por qué son importantes estos perímetros? Juntos, estos cuatro perímetros forman la base de Ellos garantizan que —de la entrada a la salida, del acceso a la memoria a la acción en el mundo real. AISPM every stage of the AI’s operation is monitored, governed, and secured Tratar la seguridad de la IA como un flujo de extremo a extremo, no sólo una verificación estática del modelo, es lo que distingue a AISPM de la gestión de postura heredada.Porque cuando los agentes de IA razonan, actúan e interactúan dinámicamente, la seguridad debe seguirlos cada paso del camino. Mejores prácticas para el AISPM efectivo Como ya podemos ver, la seguridad de los sistemas de IA requiere una mentalidad diferente: una que trata como parte de la superficie de ataque, no sólo la infraestructura en la que se ejecuta. se basa en algunos principios clave diseñados para responder a este desafío: AI reasoning and behavior AISPM Seguridad intrínseca: guardias dentro del flujo de IA La seguridad de la inteligencia artificial no puede ser reforzada; debe ser -Filtrar llamadas, restringir el acceso a la memoria, validar las llamadas externas y escanear las respuestas en tiempo real.Los envases externos como los firewalls o las escenas de código estático no protegen contra los agentes de IA que razonan su camino en acciones no intencionadas. baked into the AI’s decision-making loop . The AI itself must operate inside secure boundaries Monitorización continua – Evaluación de riesgos en tiempo real Las decisiones se toman en tiempo real, lo que significa que Es crítico continuous evaluation Los sistemas AISPM deben rastrear el comportamiento del agente a medida que se desarrolla, recalcular el riesgo basado en nuevos contextos o entradas, y ajustar los permisos o desencadenar intervenciones en medio de la ejecución si es necesario. Las revisiones estáticas de postura o las auditorías periódicas no atraparán problemas a medida que surgen. AI security is a live problem, so your posture management must be live, too. Cadea de Custodia y Auditoría Los agentes de IA tienen la capacidad de encadenar acciones, llamando APIs, desencadenando otros agentes o interactuando con los usuarios, todo esto requiere una auditoría extremadamente granular. El AISPM debe: Recordar qué acción se realizó ¿Quién o qué lo desencadenó Conservar la trayectoria completa "en la mitad" de regreso al ser humano o sistema que originó la acción. Esta es la única manera de mantener la responsabilidad y la trazabilidad cuando los agentes de IA actúan de forma autónoma. Fronteras de delegación y TTL de confianza Los sistemas de IA no solo actúan - ellos tareas a otros agentes, servicios o APIs. Sin límites adecuados, la confianza puede cascarse sin control, creando riesgos de interacciones AI-AI sin control. delegate AISPM debe hacer cumplir de autoridad delegada, Time-to-live (TTL) en confianza o acceso delegado, previniendo cadenas de permisos de larga duración que se vuelvan imposibles de revocar, y permitiendo Delegaciones de alto riesgo. strict scoping human review checkpoints Puntos de Control de Revisión Humana Validación criptográfica entre agentes de IA A medida que crecen los ecosistemas, AISPM debe prepararse para este futuro apoyando sobre las solicitudes y respuestas de IA, así como los registros prohibidos que permiten a los agentes -y a los humanos- verificar la fuente e integridad de cualquier acción en la cadena. agents will need to trust—but verify—other agents' claims cryptographic signatures Así es como los sistemas AI acabarán Especialmente en entornos multiagentes. audit and regulate themselves Herramientas y estándares emergentes para AISPM Si bien AISPM sigue siendo una disciplina emergente, estamos empezando a ver herramientas y marcos prácticos que ayudan a poner sus principios en acción, permitiendo a los desarrolladores construir sistemas de IA con guarniciones de seguridad cocidas en el flujo de decisiones y acciones de IA. Integración de Framework para Control de Acceso Frameworks de desarrollo como y empiezan a apoyar integraciones que añaden directamente en los flujos de trabajo de IA. Estas integraciones permiten a los desarrolladores: Lenguas Longo flujo identity verification and fine-grained policy enforcement Lenguas Longo flujo Autentica a los agentes de IA utilizando tokens de identidad antes de permitir acciones Inserir controles de permisos dinámicos en medio del flujo de trabajo para detener el acceso no autorizado a los datos o las operaciones no seguras Aplicar la autorización de grano fino a las tuberías de generación aumentada de recuperación (RAG), filtrando lo que la IA puede recuperar basándose en los permisos de usuario o agente en tiempo real. Estas capacidades van más allá de la validación básica de las entradas, permitiendo conductas seguras y conscientes de la identidad en las que los agentes de IA deben demostrar lo que están autorizados a hacer en cada paso crítico. Validación de datos segura y acceso estructurado Frameworks diseñados para el desarrollo de aplicaciones de IA cada vez más apoyados Al combinar la validación de entrada con las capas de autorización, los desarrolladores pueden: structured data validation and access control enforcement Garantizar que sólo los flujos de datos correctamente estructurados y permitidos entran en los modelos de IA Implementar políticas de acceso basadas en roles, atributos o relaciones de forma dinámica Mantener un seguimiento audible de cada decisión de acceso que toma la IA Esto ayuda a proteger los sistemas contra las filtraciones accidentales de datos y la manipulación intencional de la inteligencia artificial al asegurarse de que opera estrictamente dentro de sus límites definidos. Estandarización de las interacciones AI-sistema seguras Estándares emergentes como el Proponer formas estructuradas para que los agentes de IA interactúen con herramientas externas, APIs y sistemas. Model Context Protocol (MCP) Comprobar permisos explícitos antes de que los agentes de IA puedan desencadenar operaciones externas Asignación de identidad de máquina a agentes de IA, abarcando sus capacidades Reglas de autorización en tiempo real en los puntos de interacción, asegurando que las acciones permanezcan controladas y rastreables Esto es crucial para mantener las acciones impulsadas por la IA, como llamadas de API, consultas de bases de datos o transacciones financieras. . accountable and auditable Mirando hacia adelante: El futuro de AISPM La rápida evolución de los agentes de IA ya está empujando los límites de lo que los modelos de seguridad tradicionales pueden manejar.A medida que los sistemas de IA crecen más autónomos, capaces de razonar, encadenar acciones e interactuar con otros agentes. No es opcional. AISPM will become foundational Un cambio importante en el horizonte es el aumento de Al igual que los usuarios humanos se asignan niveles de confianza basados en el comportamiento y el contexto, los agentes de IA necesitarán que influyen en lo que se les permite acceder o desencadenar, especialmente en entornos multiagentes donde la confianza no controlada podría escalar los riesgos rápidamente. risk scoring and trust propagation models Escala de confianza dinámica Escala de confianza dinámica AISPM desplaza la seguridad hacia arriba en el proceso de toma de decisiones de la IA y controla el comportamiento en cada punto crítico. A medida que la IA sigue impulsando la próxima ola de aplicaciones, Las organizaciones que lo abrazan temprano podrán innovar con la IA sin comprometer la seguridad. AISPM will be critical to maintaining trust, compliance, and safety Leer más sobre cómo Permit.io maneja la colaboración de IA segura a través de una puerta de permisos . Aquí Si tiene alguna pregunta, asegúrese de unirse a nuestro , donde miles de desarrolladores están construyendo e implementando la autorización. Comunidad Slack Comunidad Slack