ブログ記事

エージェント型AIとは?新たなセキュリティリスクと防御策を解説

エージェント型AIは、学術的な理論段階から企業全体での大規模導入へと進化しています。意図を理解し、目標に向けて推論し、人間の介入なく自律的に行動できるAIエージェントは、企業内で最も急速に増加しているIDの種類です。しかし、機密情報にアクセスできるにもかかわらず、こうしたIDの多くは適切に管理されておらず、従来のアイデンティティ セキュリティおよびガバナンス体制をすり抜けています。

「エージェント型AI」および「AIエージェント」とは?

「エージェント型AI」や「AIエージェント」とは、周りの状況を理解し、自分で判断して行動し、目的を達成しようとする自動的に動くAIシステムのことです。これらのAIは、必要なデータやアプリ、サービスにアクセスするために複数のマシンIDを必要とする場合が多く、自己変更機能やサブエージェントを生成する可能性など、より複雑になる場合があります。

エージェント型AIが人間やマシンのIDと異なる点

人間やマシンと同様、エージェント型AIにもIDが存在しますが、その性質や管理方法は他のタイプとは大きく異なります。人間、マシン、そしてエージェント型AIの各IDはリソースへアクセスし、認証を必要としますが、アイデンティティ セキュリティおよびガバナンスへのアプローチはそれぞれ異なります。

ID種別

主体

主な特徴

判断基準

注意点

人間のID

従業員、契約社員、パートナー、顧客、ベンダー

役割・責任に基づいてアクセス権が付与される

人間の判断・経験・倫理

ガバナンスが比較的明確

マシン ID

アプリ、サービス、デバイス

事前にプログラムされた機能・ワークフローで動作

定義されたルール・構成

大量のマシンID管理が必要

AIエージェントのID

自律型ソフトウェア

リアルタイム入力を基に自律的に行動

学習モデルやAIアルゴリズム

責任者不明・監査不足のまま導入されがち

以下、それぞれ解説します。

人間のID

  • 従業員、契約社員、パートナー、顧客、ベンダーを含む。
  • 明確に定義されたロール(役割)のもとで業務を行い、アクセス権は通常、その組織内での役割、責任、属性に基づいて付与される。
  • 人間の判断、経験、そして倫理的な配慮に基づいて意思決定を行う。

マシン アイデンティティ

  • アプリケーション、サービス、またはデバイスを表す。
  • 特定の機能を持つ、事前にプログラムされた直線的なワークフローに従って動作する。
  • あらかじめ定義されたルールや構成に基づいて判断を行う。

エージェント型AIのID

  • タスクを実行し、判断を行い、人間の直接的な介入なしにユーザーや他のシステムとやり取りする自律型ソフトウェア エンティティを表す。
  • リアルタイムの入力に基づき、大量のデータセット、AI、自然言語処理を活用して自律的に行動する。
  • 時間の経過とともに学習・適応し、行動を進化させながら、学習済みのモデルやアルゴリズムに基づいて自律的に意思決定を行う。
  • 明確な責任者、IDの割り当て、監査制御がないまま導入されることが多い。

人間、マシン、そしてエージェント型AIの各IDは、意思決定を行うために機密性の高いデータにアクセスしますが、エージェント型AIは1時間あたり100万件を超える意思決定を行うと推定されており、人間をはるかに上回る規模と速度で動作し、リスクを指数関数的に高めています。

自律型AIエージェント運用で見落とされるセキュリティの盲点

従来のアイデンティティ セキュリティおよびガバナンス モデルは、エージェント型AIを管理する前提で設計されていません。AIのIDがこうしたツールの対応範囲をすでに超えている例として、次のような点が挙げられます。

  • ロール ベース アクセス制御(RBAC)は、人間のユーザーと定期的なレビュー サイクルを前提に設計されており、エージェント型AIのリアルタイムかつ自律的な意思決定をサポートできない。
  • シークレット管理システムでは、エージェント型AIへの対応が困難。これは、AIが求める動的かつ推論に基づくアクセスではなく、静的なアクセスを前提としているためである。
  • コンプライアンス フレームワークでは、エージェント型AIのようなデジタル アイデンティティが考慮されていない。多くのセキュリティ チームが存在を認識していない一方で、これらのIDは信頼境界を越えることができる。

エージェント型AIがもたらす問題点を押さえる

「統制できないものは保護できない」という古くから言われているセキュリティ原則は、エージェント型AIにも当てはまります。しかし、エージェント型AIはその捉えどころのない特性により統制が極めて難しく、結果としてオペレーション面、評判面、財務面における重大なリスクを生み出すとともに、脆弱な攻撃対象領域(アタック サーフェス)を拡大させています。

エージェント型AIに関するIDの危機やセキュリティ リスクは、多くの組織が自社のエージェント型AIについて、次のような基本的な問いに答えられないことに起因しています。

  • 現在アクティブなエージェント型AIはいくつあるのか?
  • エージェント型AIはどのシステムやデータにアクセスにアクセスできるのか?
  • 問題が発生した場合、どのように停止させることができるのか?

エージェント型AIによって生じる脅威は多岐にわたります。エージェント型AIのIDに対するアイデンティティ セキュリティおよびガバナンスの欠如によって、特に広範に見られる脅威の例として、次のようなものがあります。

  • 侵害されたエージェント型AIのクレデンシャルを悪用した不正アクセスおよび特権昇格。
  • データ侵害やデータの不正利用。これには、未認証の第三者への機密データの流出、学習データの改ざんによるエージェント型AIの誤判断や偏った情報の出力、さらにログ、エラー メッセージ、その他の意図しない経路を通じた機密データの漏洩などが含まれます。
  • 適切に管理・保護されない新たな機密情報の生成。
  • 未認証の入力を利用してエージェント型AIを欺き、誤った判断を下させたり、悪意のある動作を実行させたりする敵対的攻撃。
  • 大量のリクエストでエージェント型AIを過負荷状態にし、可用性を妨害するサービス拒否(DoS)攻撃。
  • エージェント型AIのソフトウェアに悪意のあるコードを注入し、その動作を操作する。
  • エージェント型AIがリソース(CPU、メモリ、ネットワーク帯域など)を過剰に消費し、システムの不安定化や停止を引き起こすリソース枯渇。
  • 侵害されたエージェント型AIによってシステム構成が不正に変更される。
  • エージェント型AIが誤って、または悪意をもってシステム ファイルやデータベースを破損・損傷させる。

エージェント型AIを管理しながら変革を支える運用モデル

人間やマシンのIDと同様、エージェント型AIもリソースへのアクセスやアクションの実行にあたっては、識別と認証が必要です。これは、セキュリティ、監査、そして説明責任の観点から不可欠です。

エージェント型AIによるリスクや脅威を軽減するためには、従来型の制御策ではなく、リアルタイムで自律的に機能するアイデンティティ セキュリティとガバナンスの設計が必要です。組織は、人間中心かつ定期的な制御から脱却し、継続的で動的、かつ状況に応じて適応するID中心のセキュリティとガバナンス戦略へと移行する必要があります。

AIエージェントのセキュリティを高める主要な機能

アイデンティティ セキュリティとガバナンスをエージェント型AIにも拡張するために、組織はこれら特有の課題に対応し、内在するリスクを最小化できるソリューションを求めています。次に示す6つの仕組みは、その実現をサポートします。

仕組み

要点

可視化

ID・権限・活動をまとめて見える化

ID付与と責任者設定

一意のID付与と責任者の明確化

アクセス制御

意図に応じた最小権限のアクセスを自動管理

クレデンシャル管理

認証情報の安全管理・自動更新・失効

リアルタイム監視

行動と操作を常時監視し異常を把握

異常検知と自動対応

リスク動作を検知し自動で対処

以下、それぞれ解説します。

エージェントの動作、アクセス、説明責任を可視化

  • エージェント型AIをIDとして管理し、そのアクセス権、エンタイトルメント、アクティビティを単一のビューで可視化する集中管理型のアイデンティティ リポジトリ。
  • エージェント型AIが連携するさまざまなシステムやアプリケーションから情報を集約し、アクセス権限のパターンを包括的に把握するためのアクセス権限のデータ。
  • エージェント型AIのアクティビティを追跡し、傾向を特定し、異常を検知するためのレポートおよび分析機能。

エージェント型AI作成時にIDと責任者を任命

  • 各エージェント型AIが初期段階から一意で検証可能なIDを持てるようにする、自動化されたアイデンティティ プロビジョニング。
  • ガバナンスとレポート作成を容易にするため、エージェント型AIのIDにエージェントの種類、目的、責任者などを定義できるカスタム属性。
  • 各エージェント型AIの責任者と説明責任を、特定の個人またはチームに割り当てる機能。

必要なものを、必要なときに、必要なだけ、かつ意図を認識するアクセス制御

  • エージェント、リソース、コンテキストの属性に基づき、意図に応じて調整可能な詳細なアクセス ポリシーを実現する属性ベース アクセス制御(ABAC)。
  • エージェント型AIに対するアクセス ポリシーを定義・適用し、必要最小限の特権のみを付与できるよう支援するポリシー エンジン。
  • エージェント型AIのアクセス権限付与と承認を自動化し、必要なものを、必要なときに、必要なだけのアクセスを実現するとともに、AIエージェントのライフサイクルやロール(役割)変更の管理をサポートするワークフローおよびチケッティング システムとの統合連携。
  • エージェント型AIのユース ケースに合わせて調整可能な、コンテキスト認識型アクセス ポリシーの定義と適用を容易にする意図認識型アクセス制御。
  • 不正やエラーにつながる相反するタスクの実行を防止するための、エージェント型AI向け職務分掌(SoD)の制御。

動的なクレデンシャルの発行と失効を実施

  • エージェント型AIのクレデンシャルを安全に保存・管理するためのシークレット管理ソリューションとの統合連携。
  • クレデンシャルの盗難や不正利用のリスクを低減するための、エージェント型AI クレデンシャルの自動ローテーション。
  • セキュリティ インシデントやポリシー違反の発生時に、エージェント型AIのアクセス権の自動失効。

エージェント型AIの動作をリアルタイムで監視

  • データ アクセス、APIコール、システム リソース消費を含む、エージェント型AI アクティビティの継続監視。
  • (エージェント型AIの通常動作に関するベースラインを確立し、異常を検知するための)行動解析をサポートするインテグレーション。
  • アプリケーションやシステムとのやり取りを追跡・監査する、エージェント型AI向けユーザー アクティビティ監視(UAM)。

リスクの高い、または異常なエージェント型AIの動作を検知、対応

  • 異常またはリスクの高いエージェント型AIの動作を特定する機能。
  • セキュリティ情報イベント管理(SIEM)やその他のセキュリティ システムからのアラートに基づいてインシデント対応を自動化するワークフロー。

まとめ

エージェント型AIの台頭によって生まれた自律型デジタル アイデンティティという新たなカテゴリは、アイデンティティ セキュリティとガバナンスに対して新しいアプローチを必要としています。エージェント型AIには、人間やマシンと同様、責任者の割り当て、アクセス範囲の定義、リアルタイムでの監視、そして説明責任を備えた形で保護・統制できる、専用のソリューションが求められます。

対応の遅れや、既存ツールでやり過ごそうとすることは、重大なリスクを招く要因となります。エージェント型AIがガバナンスの範囲を超えてしまう前に、組織が確実に保護体制を整えることが不可欠です。

免責事項:本記事の内容は情報提供のみを目的としており、法的助言を意図するものではありません。SailPointは法的助言を提供する立場にはなく、該当する法的事項については法律顧問にご相談されることをお勧めします。

エージェント型AIに関するよくある質問(FAQ)

エージェント型AIのIDの主な3つのカテゴリは何ですか?

1. 機能的ID(エージェントが行う内容):

  • タスク指向エージェント:特定のタスクの実行に特化している。
  • 情報検索エージェント:さまざまなリソースから情報を検索・抽出することに特化している。
  • リコメンダー エージェント:ユーザーの嗜好に基づいて提案を行う。
  • 対話型エージェント/チャットボット:ユーザーとの会話を通じてサポートを提供したり、簡単なタスクを実行したりする。
  • 自律型エージェント:人の介入を受けずに自ら判断し、独立して動作する。

2. ペルソナ アイデンティティ(エージェントが自分を表現する方法):

  • 支援型アシスタント:親しみやすく、サポートに積極的で、ユーザー支援に特化している。
  • 専門アドバイザー:知識豊富で権威性のあるペルソナを示す。
  • 中立的情報提供者:個人的な意見を交えず、事実に基づく情報を提供する。

3. アーキテクチャ アイデンティティ(エージェントの構成方式):

  • 単純反射型エージェント:知覚した情報に直接反応する。
  • モデルベース反射型エージェント:内部状態を保持する。
  • 目標指向型エージェント:定義された目標の達成を目指して行動する。
  • ユーティリティベース型エージェント:ユーティリティ関数の最大化を図る。
  • 学習型エージェント:時間の経過とともに適応し、性能を向上させる。
エージェント型AIのIDの主要な属性は何ですか?
  • 名前/ID:エージェント型AIを一意に識別するための識別子。
  • タイプ ― エージェント型AIの種類(チャットボット、データ分析エージェント、自動化エージェントなど)を示す。
  • 目的:エージェント型AIに意図された機能を示す。
  • アクセス権許諾:エージェント型AIにアクセスが認証されているリソースおよびアクション。
  • 責任者/管理者:エージェント型AIの管理責任を負う個人またはチーム。
  • 信頼レベル:エージェント型AIの動作やリスク プロファイルに基づいて割り当てられる信頼の度合い。
エージェント型AIがアイデンティティ セキュリティとガバナンスにもたらすリスクの例にはどのようなものがありますか?
  • エージェントの侵害:サイバー攻撃者がエージェント型AIを侵害し、システムやデータへの不正アクセスを試みる可能性がある。
  • ポリシー ドリフト:エージェント型AIが、偏ったデータやアルゴリズムの変更によって時間の経過とともに意図されたポリシーから逸脱し、意図しない結果を招く可能性がある。
  • 説明可能性の欠如:エージェント型AIの意思決定プロセスが不透明で、その判断の仕組みを理解しにくく、監査や検証を困難にする可能性がある。
    • 自動化の暴走:エージェント型AIが意図しない動作を規模を拡大して実行し、広範な混乱や損害を引き起こす可能性がある。
    • データ ポイズニング:攻撃者が学習データセットに悪意のあるデータを挿入し、エージェント型AIの動作を操作する可能性がある。
アイデンティティ セキュリティとガバナンスは、エージェント型AIのリスクをどのようにして軽減できるのですか?
  • エージェント型AIを厳格なアクセス制御が必要な特権IDとして扱う。
  • エージェント型AIの設計、導入、オペレーションを統制するための専用ポリシーを策定する。
  • エージェント型AIの行動を追跡・監査し、その意思決定プロセスを可視化するための仕組みを実装する。
  • AIを活用した分析により、エージェント型AIの動作の異常を検知し、潜在的なセキュリティ脅威を特定する。
  • エージェント型AIに対して人間による管理と制御を維持し、必要に応じて人間が介入し、AIの判断を上書きできるようにする。
  • データ ポイズニング攻撃を防止するため、厳格なデータ検証およびクレンジング プロセスを実装する。
  • ポリシー ドリフトを防ぎ、精度を維持するために、AIモデルのパフォーマンスを継続的に監視し、必要に応じて再学習を行う。
  • エージェント型AIを本番システムに導入する前に、サンドボックス環境で徹底的にテストを行う。
  • エージェント型AIに対して最小権限アクセスを適用し、タスクの実行に必要な最小限の特権のみを付与することで、侵害時の潜在的な被害を最小化する。
エージェント型AIのIDが侵害される例としてはどのようなものがありますか?

エージェント型AIのIDは、他のデジタル アイデンティティと同様に、以下のようなさまざまな手段によって侵害される可能性があります。

  • 敵対的攻撃:攻撃者が特定の入力を作成し、エージェント型AIを欺いて誤判断を誘発したり、セキュリティ制御を回避したり、エージェントの動作を操作したりする攻撃手法。
  • コード インジェクション:入力検証やその他のセキュリティ対策の脆弱性を突いてエージェント型AIのソフトウェアに悪意のあるコードを注入し、クレデンシャルを窃取したり、エージェントの動作を操作したり、リモート制御を取得したりする攻撃手法。
  • 侵害されたサービス アカウント:エージェント型AIが動作するサービス アカウントのパスワードが弱い、適切に管理されていない、あるいはクレデンシャル スタッフィング攻撃の対象となると、攻撃者が制御を奪取する可能性がある。
  • 構成ミス:誤った設定のエージェント型AIにより、機密情報が公開されたり、攻撃者に悪用される可能性のある脆弱性(過剰に緩いアクセス制御、無効化されたセキュリティ機能、デフォルトのクレデンシャルなど)が生じる可能性がある。
  • データ ポイズニング:攻撃者がエージェント型AIの学習データセットに悪意のあるデータを注入し、エージェント型AIが偏った、または誤ったパターンを学習することで、誤った判断を下したり、悪意のある動作を実行したりする可能性がある。
  • 依存関係の脆弱性:サード パーティ製のライブラリや依存関係に既知の脆弱性が存在する場合、それらに依存するエージェント型AIは攻撃の対象となる可能性があり、攻撃者がその脆弱性を悪用してエージェントを侵害することがある。
  • 内部脅威:エージェント型AIのシステムにアクセス権を持つ悪意のある内部関係者が、クレデンシャルを窃取したり、構成を改ざんしたり、悪意のあるコードを注入したりする可能性がある。
  • 悪意のあるエージェント型AI コンポーネント:サイバー犯罪者がオンライン上のリポジトリやマーケットプレイスを通じて悪意のあるエージェント型AIコンポーネントを配布し、開発者が知らないうちにマルウェアを自らのエージェント型AIに組み込んでしまう可能性がある。
  • 特権昇格:攻撃者がエージェント型AIのソフトウェアや設定の脆弱性を悪用して特権を昇格させ、本来想定された範囲を超えてリソースにアクセスする可能性がある。
  • 盗まれたAPIキー/シークレット:リソースへのアクセスにAPIキーやシークレットを使用するエージェント型AIは、それらが安全に保管されていない場合、攻撃者に盗まれてエージェントになりすまされるリスクがある
公開日: 2025年11月18日読了目安時間: 4 分
AIと機械学習サイバーセキュリティアイデンティティ セキュリティ