AI、新たなセキュリティ姿勢を求める AI Security Posture Management (AISPM) is an emerging discipline focused on securing AI agents, their memory, external interactions, and behavior in real-time. AI エージェントがアプリケーションに深く埋め込まれるにつれて、伝統的なセキュリティモデルは、静的システムとは異なり、AI 駆動環境は、幻覚的な出力、即時注入、自動行動、エージェント間のカスケードインタラクションなど、まったく新しいリスクを導入します。 これらは既存の問題の拡張だけでなく、DSPM(データセキュリティ姿勢管理)やCSPM(クラウドセキュリティ姿勢管理)などのセキュリティ姿勢ツールを継承する全く新しい課題です。 . were never designed to solve AISPMはAIシステムが存在するだけでなく、 または データ - 彼ら 新しいコンテンツ、作る 「Trigger」 これらのシステムのセキュリティを確保するには、インフラレベルのレベルではなく、AIの推論と行動のレベルで、どのようにセキュリティを監視し、実施し、監査するかを再考する必要があります。 store transmit generate decisions real-world actions If you are looking for a deeper dive into AIエージェントが現代のアクセス制御モデルにどのように適合するか、我々はそれを幅広くカバーする。 この記事では、次の層に焦点を当てています:セキュリティ だけでなく、 . どんな機械のアイデンティティが マシンアイデンティティとは? AIアクセス制御を理解する how AI agents operate who they are マシンアイデンティティとは? AIアクセス制御を理解する 私たちがAISPMを独特かつ必要不可欠な進化としていることを説明する際に、私たちに参加してください。 AI セキュリティの概要と、組織がどのようにAI 駆動の世界にセキュリティの姿勢を適応させることができるかについて説明します。 four unique perimeters これらのリスクは既に存在しているので、 . and they’re growing fast 何がセキュリティをユニークにするのか。 AIシステムのセキュリティーは、既存のツールを適応するだけでなく、これまで存在していなかった全く新しいリスクカテゴリーに直面することです。 上記のように、 その予測不可能さは、セキュリティチームが理解し始めたばかりの脆弱性をもたらします。 AI agents don’t just execute code—they generate content, make decisions, and interact with other systems in unpredictable ways. , for example - false or fabricated outputs - are not only inconvenient; they can 捕まらなかったら AI hallucinations corrupt data, expose sensitive information, or even trigger unsafe actions これを組み合わせることで、増加する使用量の AIシステムが膨大なメモリストアから情報を引き出し、攻撃面が劇的に拡大する。 retrieval-augmented generation (RAG) pipelines データのリスクを超えて、 , where malicious actors craft inputs designed to hijack the AI's behavior. Think of it as 自然言語の内部で働いているからです。 AI systems are uniquely susceptible to prompt injection attacks the SQL injection problem, but harder to detect and even harder to contain たぶん、この問題の最も難しい部分は、 彼らはアクションを引き起こし、外部APIを呼び出し、時には他のAIエージェントと相互作用し、 予測したり、制御したり、監査したりするのは難しい。 AI agents don’t operate in isolation complex, cascading chains of behavior 伝統的なセキュリティ姿勢ツールは、この程度の自律性とダイナミックな行動のために設計されたことはありません。 完全に新しいモデルであり、AIの行動と意思決定の確保に焦点を当てている。 AISPM is not DSPM or CSPM for AI AIエージェントの4つのアクセスコントロール・ペリメータ AIシステムのセキュリティは、モデルへのアクセスを管理するだけでなく、AIエージェントが動作する際に情報と意思決定の全流れを制御する必要があります。 複雑なシステムと同様に、アクセス制御はAIの文脈で強化された攻撃表面になります。 それぞれが潜在的な脆弱性のチェックポイントとして機能する。 4 異なる周辺 4 異なる周辺 プロンプト・フィルタリング - Controling What Enters the AI すべてのAI相互作用はプロンプトから始まり、プロンプトは現在、ユーザー、他のシステム、または上流AIエージェントから、攻撃の表面となっています。 . unfiltered prompts can lead to manipulation, unintended behaviors, or AI "jailbreaks" Prompt フィルタリングは、検証済みの許可された入力のみがモデルに到達することを保証します。 不安全な行動を引き起こすように設計された悪意のある入力をブロックする 役割、許可、またはユーザーの文脈に基づくプロンプトレベルのポリシーの実施 実行前にインプットをダイナミックに検証する たとえば、管理者以外のユーザーに特定のプロンプトタイプを制限するか、データベースクエリや金融取引などの敏感な操作を含むプロンプトの追加チェックを要求する。 RAG Data Protection - Securing AI Memory and Knowledge Retrieval(AIメモリと知識回収の確保) AIエージェントが外部の知識ベースやベクトルデータベースからデータを抽出するRetrieval-Augmented Generation (RAG)パイプラインは、強力な機能を追加しますが、 AISPMはコントロールする必要があります: expand the attack surface 誰または何が特定のデータソースにアクセスできるか リアルタイムアクセスポリシーに基づいて収集されるデータ 復元後のフィルタリングで、モデルに到達する前に機密情報を削除する この周辺がなければ、AIエージェントはリスクを または まずは、 retrieving and leaking sensitive data training themselves on information they shouldn’t have accessed “ 「医療のためのRAGデータ保護の実用的な例を提供します。 Building AI Applications with Enterprise-Grade Security Using RAG and FGA RAGとFGAを使用したエンタープライズグレードのセキュリティでAIアプリケーションを構築 3. Secure External Access — Governing AI Actions Beyond the Model AIエージェントは内部推論に限定されていない。ますます、彼らは API 呼び出し、トランザクションの実行、レコードの変更、またはシステム間のタスクの連鎖。 act AISPM が実施する : strict controls over these external actions 各AIエージェントが実行できる操作を正確に定義する 「代表」チェーンを追跡し、ユーザーが起動したがエージェントによって実行されたアクションの責任を維持する 必要に応じて、特に購入やデータ修正などのリスクの高いアクションのための人間の承認ステップを挿入します。 人間の承認 これにより、AIエージェントは意図された範囲外で行動したり、意図しない下流効果を作り出すのを防ぐことができます。 4. Response Enforcement — Monitoring What AI Outputs すべてのインプットとアクションが厳密に制御されている場合でも、 事実を幻想化したり、敏感な情報を暴露したり、不適切なコンテンツを生成したりする。 AI responses themselves can still create risk 応答実施とは: 配信前にコンプライアンス、敏感性、適切性のための出力スキャン 役割ベースの出力フィルターを適用して、特定の情報を有効なユーザーのみが表示する AI が最終的な反応で内部の知識、資格、または PII を無意に漏らさないようにすること AIシステムでは、出力は情報だけではありません。 それを確保することは交渉不能である。 it’s the final, visible action なぜこのペリメーターが重要なのか これらの4つの領域は、その基礎を構成する。 彼らは、 入力から出力まで、メモリアクセスから現実世界のアクションまで。 AISPM every stage of the AI’s operation is monitored, governed, and secured AI セキュリティをエンド-to-エンド フローとして扱うことは、静的なモデルチェックだけではなく、AISPM を遺産の姿勢管理と区別するものです。 効果的なAISPMのためのベストプラクティス 我々はすでに見ることができるように、AIシステムのセキュリティは、別の考え方を必要とします。 攻撃の表面の一部として、それが実行されているインフラだけでなく、 この課題に対応するためのいくつかの主要な原則に基づいて構築されています。 AI reasoning and behavior AISPM Intrinsic Security - Guardrails Inside the AI Flow(AIフローの内部のガードレイル) 効果的なAIセキュリティはボルトされません。 プロンプトのフィルタリング、メモリアクセスを制限し、外部通話の検証、リアルタイムで回答をスキャンします。ファイアウォールや静的コードスキャンなどの外部の包装は、AIエージェントが意図しない行動に道を向けることから保護しません。 baked into the AI’s decision-making loop . The AI itself must operate inside secure boundaries 継続的な監視 - リアルタイムのリスク評価 決断はリアルタイムで、つまり、 批判的である。 continuous evaluation AISPM システムは、エージェントの行動を展開するにつれて追跡し、新しい文脈や入力に基づいてリスクを再計算し、必要に応じて許可を調整したり、実行中に介入を引き起こす必要があります。 静的な姿勢のレビューや定期的な監査は、発生したときに問題を捕らえることはありません。 AI security is a live problem, so your posture management must be live, too. Chain of Custody and Auditing(監視・監査の連鎖) AIエージェントは、APIを呼び出したり、他のエージェントを引き起こしたり、ユーザーと対話したりする機能を有しており、これらは非常に細かい監査を必要としています。 AISPMは: どのようなアクションが実施されたかを記録する 誰や何がそれを引き起こしたか 行動の起源となった人間またはシステムに戻る完全な「半分」の足跡を保存する。 これは、AIエージェントが自律的に行動するときに責任と追跡性を維持する唯一の方法です。 Delegation Boundaries and Trust TTL AIシステムは行動するだけではなく、彼らは 他のエージェント、サービス、または API へのタスク 適切な境界線がなければ、信頼はコントロールされず、コントロールされない AI-to-AI 相互作用のリスクを作り出すことができます。 delegate AISPM が実施する 委任された権限、信頼上のタイム・トゥ・ライヴ(TTL)または委任されたアクセスにより、取り消すことができない長期的な許可チェーンを防止し、 リスクの高い代表団 strict scoping Human Review Checkpoints(ヒューマンレビューチェックポイント) Human Review Checkpoints(ヒューマンレビューチェックポイント) AIエージェント間の暗号化検証 生態系が成長するにつれて、 AISPMは、この未来をサポートすることによって準備すべきです。 AIのリクエストと応答、また、エージェントと人間が連鎖内のいかなるアクションの源と完全性を検証することを可能にする不正なログ。 agents will need to trust—but verify—other agents' claims cryptographic signatures これが、最終的にAIシステムが 特にマルチエージェント環境では。 audit and regulate themselves Tooling and Emerging Standards for AISPM(AISPMのためのツールリングと新規基準) AISPMはまだ新興分野ですが、AIの原則を実行するのに役立つ実用的なツールとフレームワークを見始め、開発者がAIの意思決定と行動の流れに組み込まれたセキュリティガードレールを備えたAIシステムを構築することができます。 AI Framework Integrations for Access Control (AIフレームワークインテグレーション) 人気の開発フレームワークは、 そして 追加する統合をサポートし始めています。 これらの統合により、開発者は次のことを可能にします: ラングチェーン LangFlow identity verification and fine-grained policy enforcement ラングチェーン LangFlow アクションを許可する前にアイデンティティトークンを使用するAIエージェントの認証 Dynamic permission checks in mid-workflow to stop unauthorized data access or unsafe operations. 動的許可チェックをワークフロー中に入力して、許可されていないデータアクセスや不安全な操作を停止します。 RAG(Retrieval-Augmented Generation)パイプラインに対して、AIがリアルタイムのユーザまたはエージェントの許可に基づいて取得できるものをフィルタリングする。 これらの機能は、基本的な入力検証を超え、AIエージェントが各重要なステップでできることを証明しなければならないセキュアでアイデンティティー意識のパイプラインを可能にします。 Secure Data Validation and Structured Access(セキュアなデータ検証と構造化されたアクセス) AIアプリケーション開発向けのフレームワークがますますサポート 入力検証と権限レイヤーを組み合わせることにより、開発者は: structured data validation and access control enforcement 適切に構造化された、許可されたデータのみがAIモデルに流れることを確実にします。 役割ベース、属性ベース、または関係ベースのアクセスポリシーをダイナミックに適用する AIが行う各アクセス決定の監査可能なトラックを維持する これは、AIが定義された限界内で厳密に動作することを保証することによって、偶発的なデータ漏洩や意図的な迅速な操作からシステムを保護するのに役立ちます。 セキュア AI-to-System Interactionsの標準化 新たな基準のような、 AI エージェントが外部のツール、API、およびシステムと相互作用するための構造化された方法を提案します。 Model Context Protocol (MCP) AIエージェントが外部操作を引き起こす前に明示的な許可チェック AIエージェントに機械アイデンティティの割り当て、その能力を範囲化 インタラクションポイントでのリアルタイムの権限規則により、アクションが制御され、追跡可能であることを保証します。 これは、API呼び出し、データベースクエリ、または金融取引などのAI駆動アクションを維持するために不可欠です。 . accountable and auditable 展望:AISPMの未来 AIエージェントの急速な進化はすでに、伝統的なセキュリティモデルが処理できる限界を押し下げている。AIシステムがより自律的に成長するにつれて、推論し、行動を連鎖し、他のエージェントと相互作用することができる。 オプションではない。 AISPM will become foundational 地平線上の大きな転換点は、 AIエージェントにとっては、人間のユーザーが行動や文脈に基づいて信頼レベルを割り当てられるのと同様に、AIエージェントは それは、彼らがアクセスまたは触発できるものに影響を与える - 特に、コントロールされていない信頼がリスクを急激に拡大させるマルチエージェント環境では。 risk scoring and trust propagation models ダイナミック信頼スコア ダイナミック信頼スコア AISPMは、AIの意思決定プロセスにセキュリティを上流に移し、あらゆる重要なポイントで行動を制御します。 AIが次なるアプリケーションの波を駆動し続けるにつれて、 早期に受け入れる組織は、セキュリティを損なうことなくAIで革新できるようになります。 AISPM will be critical to maintaining trust, compliance, and safety Permit.io が許可ゲートウェイを通じてセキュアな AI コラボレーションを処理する方法についてもっと読む . ここ 質問がある場合は、私たちの参加を確認してください。 何千もの開発者がライセンスの構築と実装を行っている。 Slack community Slack コミュニティ