目次
エージェント型AIは、学術的な理論段階から企業全体での大規模導入へと進化しています。意図を理解し、目標に向けて推論し、人間の介入なく自律的に行動できるAIエージェントは、企業内で最も急速に増加しているIDの種類です。しかし、機密情報にアクセスできるにもかかわらず、こうしたIDの多くは適切に管理されておらず、従来のアイデンティティ セキュリティおよびガバナンス体制をすり抜けています。
「エージェント型AI」および「AIエージェント」とは?
「エージェント型AI」や「AIエージェント」とは、周りの状況を理解し、自分で判断して行動し、目的を達成しようとする自動的に動くAIシステムのことです。これらのAIは、必要なデータやアプリ、サービスにアクセスするために複数のマシンIDを必要とする場合が多く、自己変更機能やサブエージェントを生成する可能性など、より複雑になる場合があります。
エージェント型AIが人間やマシンのIDと異なる点
人間やマシンと同様、エージェント型AIにもIDが存在しますが、その性質や管理方法は他のタイプとは大きく異なります。人間、マシン、そしてエージェント型AIの各IDはリソースへアクセスし、認証を必要としますが、アイデンティティ セキュリティおよびガバナンスへのアプローチはそれぞれ異なります。
ID種別 | 主体 | 主な特徴 | 判断基準 | 注意点 |
|---|---|---|---|---|
人間のID | 従業員、契約社員、パートナー、顧客、ベンダー | 役割・責任に基づいてアクセス権が付与される | 人間の判断・経験・倫理 | ガバナンスが比較的明確 |
マシン ID | アプリ、サービス、デバイス | 事前にプログラムされた機能・ワークフローで動作 | 定義されたルール・構成 | 大量のマシンID管理が必要 |
AIエージェントのID | 自律型ソフトウェア | リアルタイム入力を基に自律的に行動 | 学習モデルやAIアルゴリズム | 責任者不明・監査不足のまま導入されがち |
以下、それぞれ解説します。
人間のID
- 従業員、契約社員、パートナー、顧客、ベンダーを含む。
- 明確に定義されたロール(役割)のもとで業務を行い、アクセス権は通常、その組織内での役割、責任、属性に基づいて付与される。
- 人間の判断、経験、そして倫理的な配慮に基づいて意思決定を行う。
マシン アイデンティティ
- アプリケーション、サービス、またはデバイスを表す。
- 特定の機能を持つ、事前にプログラムされた直線的なワークフローに従って動作する。
- あらかじめ定義されたルールや構成に基づいて判断を行う。
エージェント型AIのID
- タスクを実行し、判断を行い、人間の直接的な介入なしにユーザーや他のシステムとやり取りする自律型ソフトウェア エンティティを表す。
- リアルタイムの入力に基づき、大量のデータセット、AI、自然言語処理を活用して自律的に行動する。
- 時間の経過とともに学習・適応し、行動を進化させながら、学習済みのモデルやアルゴリズムに基づいて自律的に意思決定を行う。
- 明確な責任者、IDの割り当て、監査制御がないまま導入されることが多い。
人間、マシン、そしてエージェント型AIの各IDは、意思決定を行うために機密性の高いデータにアクセスしますが、エージェント型AIは1時間あたり100万件を超える意思決定を行うと推定されており、人間をはるかに上回る規模と速度で動作し、リスクを指数関数的に高めています。
自律型AIエージェント運用で見落とされるセキュリティの盲点
従来のアイデンティティ セキュリティおよびガバナンス モデルは、エージェント型AIを管理する前提で設計されていません。AIのIDがこうしたツールの対応範囲をすでに超えている例として、次のような点が挙げられます。
- ロール ベース アクセス制御(RBAC)は、人間のユーザーと定期的なレビュー サイクルを前提に設計されており、エージェント型AIのリアルタイムかつ自律的な意思決定をサポートできない。
- シークレット管理システムでは、エージェント型AIへの対応が困難。これは、AIが求める動的かつ推論に基づくアクセスではなく、静的なアクセスを前提としているためである。
- コンプライアンス フレームワークでは、エージェント型AIのようなデジタル アイデンティティが考慮されていない。多くのセキュリティ チームが存在を認識していない一方で、これらのIDは信頼境界を越えることができる。
エージェント型AIがもたらす問題点を押さえる
「統制できないものは保護できない」という古くから言われているセキュリティ原則は、エージェント型AIにも当てはまります。しかし、エージェント型AIはその捉えどころのない特性により統制が極めて難しく、結果としてオペレーション面、評判面、財務面における重大なリスクを生み出すとともに、脆弱な攻撃対象領域(アタック サーフェス)を拡大させています。
エージェント型AIに関するIDの危機やセキュリティ リスクは、多くの組織が自社のエージェント型AIについて、次のような基本的な問いに答えられないことに起因しています。
- 現在アクティブなエージェント型AIはいくつあるのか?
- エージェント型AIはどのシステムやデータにアクセスにアクセスできるのか?
- 問題が発生した場合、どのように停止させることができるのか?
エージェント型AIによって生じる脅威は多岐にわたります。エージェント型AIのIDに対するアイデンティティ セキュリティおよびガバナンスの欠如によって、特に広範に見られる脅威の例として、次のようなものがあります。
- 侵害されたエージェント型AIのクレデンシャルを悪用した不正アクセスおよび特権昇格。
- データ侵害やデータの不正利用。これには、未認証の第三者への機密データの流出、学習データの改ざんによるエージェント型AIの誤判断や偏った情報の出力、さらにログ、エラー メッセージ、その他の意図しない経路を通じた機密データの漏洩などが含まれます。
- 適切に管理・保護されない新たな機密情報の生成。
- 未認証の入力を利用してエージェント型AIを欺き、誤った判断を下させたり、悪意のある動作を実行させたりする敵対的攻撃。
- 大量のリクエストでエージェント型AIを過負荷状態にし、可用性を妨害するサービス拒否(DoS)攻撃。
- エージェント型AIのソフトウェアに悪意のあるコードを注入し、その動作を操作する。
- エージェント型AIがリソース(CPU、メモリ、ネットワーク帯域など)を過剰に消費し、システムの不安定化や停止を引き起こすリソース枯渇。
- 侵害されたエージェント型AIによってシステム構成が不正に変更される。
- エージェント型AIが誤って、または悪意をもってシステム ファイルやデータベースを破損・損傷させる。
エージェント型AIを管理しながら変革を支える運用モデル
人間やマシンのIDと同様、エージェント型AIもリソースへのアクセスやアクションの実行にあたっては、識別と認証が必要です。これは、セキュリティ、監査、そして説明責任の観点から不可欠です。
エージェント型AIによるリスクや脅威を軽減するためには、従来型の制御策ではなく、リアルタイムで自律的に機能するアイデンティティ セキュリティとガバナンスの設計が必要です。組織は、人間中心かつ定期的な制御から脱却し、継続的で動的、かつ状況に応じて適応するID中心のセキュリティとガバナンス戦略へと移行する必要があります。
AIエージェントのセキュリティを高める主要な機能
アイデンティティ セキュリティとガバナンスをエージェント型AIにも拡張するために、組織はこれら特有の課題に対応し、内在するリスクを最小化できるソリューションを求めています。次に示す6つの仕組みは、その実現をサポートします。
仕組み | 要点 |
|---|---|
可視化 | ID・権限・活動をまとめて見える化 |
ID付与と責任者設定 | 一意のID付与と責任者の明確化 |
アクセス制御 | 意図に応じた最小権限のアクセスを自動管理 |
クレデンシャル管理 | 認証情報の安全管理・自動更新・失効 |
リアルタイム監視 | 行動と操作を常時監視し異常を把握 |
異常検知と自動対応 | リスク動作を検知し自動で対処 |
以下、それぞれ解説します。
エージェントの動作、アクセス、説明責任を可視化
- エージェント型AIをIDとして管理し、そのアクセス権、エンタイトルメント、アクティビティを単一のビューで可視化する集中管理型のアイデンティティ リポジトリ。
- エージェント型AIが連携するさまざまなシステムやアプリケーションから情報を集約し、アクセス権限のパターンを包括的に把握するためのアクセス権限のデータ。
- エージェント型AIのアクティビティを追跡し、傾向を特定し、異常を検知するためのレポートおよび分析機能。
エージェント型AI作成時にIDと責任者を任命
- 各エージェント型AIが初期段階から一意で検証可能なIDを持てるようにする、自動化されたアイデンティティ プロビジョニング。
- ガバナンスとレポート作成を容易にするため、エージェント型AIのIDにエージェントの種類、目的、責任者などを定義できるカスタム属性。
- 各エージェント型AIの責任者と説明責任を、特定の個人またはチームに割り当てる機能。
必要なものを、必要なときに、必要なだけ、かつ意図を認識するアクセス制御
- エージェント、リソース、コンテキストの属性に基づき、意図に応じて調整可能な詳細なアクセス ポリシーを実現する属性ベース アクセス制御(ABAC)。
- エージェント型AIに対するアクセス ポリシーを定義・適用し、必要最小限の特権のみを付与できるよう支援するポリシー エンジン。
- エージェント型AIのアクセス権限付与と承認を自動化し、必要なものを、必要なときに、必要なだけのアクセスを実現するとともに、AIエージェントのライフサイクルやロール(役割)変更の管理をサポートするワークフローおよびチケッティング システムとの統合連携。
- エージェント型AIのユース ケースに合わせて調整可能な、コンテキスト認識型アクセス ポリシーの定義と適用を容易にする意図認識型アクセス制御。
- 不正やエラーにつながる相反するタスクの実行を防止するための、エージェント型AI向け職務分掌(SoD)の制御。
動的なクレデンシャルの発行と失効を実施
- エージェント型AIのクレデンシャルを安全に保存・管理するためのシークレット管理ソリューションとの統合連携。
- クレデンシャルの盗難や不正利用のリスクを低減するための、エージェント型AI クレデンシャルの自動ローテーション。
- セキュリティ インシデントやポリシー違反の発生時に、エージェント型AIのアクセス権の自動失効。
エージェント型AIの動作をリアルタイムで監視
- データ アクセス、APIコール、システム リソース消費を含む、エージェント型AI アクティビティの継続監視。
- (エージェント型AIの通常動作に関するベースラインを確立し、異常を検知するための)行動解析をサポートするインテグレーション。
- アプリケーションやシステムとのやり取りを追跡・監査する、エージェント型AI向けユーザー アクティビティ監視(UAM)。
リスクの高い、または異常なエージェント型AIの動作を検知、対応
- 異常またはリスクの高いエージェント型AIの動作を特定する機能。
- セキュリティ情報イベント管理(SIEM)やその他のセキュリティ システムからのアラートに基づいてインシデント対応を自動化するワークフロー。
まとめ
エージェント型AIの台頭によって生まれた自律型デジタル アイデンティティという新たなカテゴリは、アイデンティティ セキュリティとガバナンスに対して新しいアプローチを必要としています。エージェント型AIには、人間やマシンと同様、責任者の割り当て、アクセス範囲の定義、リアルタイムでの監視、そして説明責任を備えた形で保護・統制できる、専用のソリューションが求められます。
対応の遅れや、既存ツールでやり過ごそうとすることは、重大なリスクを招く要因となります。エージェント型AIがガバナンスの範囲を超えてしまう前に、組織が確実に保護体制を整えることが不可欠です。
免責事項:本記事の内容は情報提供のみを目的としており、法的助言を意図するものではありません。SailPointは法的助言を提供する立場にはなく、該当する法的事項については法律顧問にご相談されることをお勧めします。