기사

에이전트 AI: 기업의 아이덴티티 및 거버넌스 재고

에이전트 AI는 학문적 이론의 단계를 넘어 현재는 기업 전반에서 대규모로 배포되고 있습니다. 사람의 개입 없이 의도를 이해하고, 목표를 향해 추론하며, 자율적으로 행동할 수 있는 AI 에이전트는 기업에서 가장 빠르게 증가하고 있는 아이덴티티 유형입니다. 그러나 이러한 아이덴티티들은 민감한 데이터에 접근할 수 있음에도 불구하고 대부분 관리되지 않은 상태로 남아 있으며, 기존의 아이덴티티 보안 및 거버넌스 보호 장치를 우회하고 있습니다.

AI 에이전트와 휴먼 및 머신 아이덴티티의 차이

휴먼과 머신처럼 AI 에이전트도 고유한 아이덴티티를 가지지만, 그 성격과 관리 방식은 다른 유형과 크게 다릅니다. 휴먼, 머신, AI 에이전트 아이덴티티 모두 리소스에 접근하고 인증이 필요하지만, 아이덴티티 보안과 거버넌스에 있어 접근 방식은 서로 다릅니다.

휴먼 아이덴티티

  • 직원, 계약자, 파트너, 고객, 공급업체를 포함합니다.
  • 조직 내 역할, 책임, 속성에 따라 정의된 권한 구조 안에서 접근이 이루어집니다.
  • 인간의 판단력, 경험, 윤리적 고려 사항을 기반으로 의사결정을 내립니다.

머신 아이덴티티

  • 애플리케이션, 서비스 또는 기기를 나타냅니다.
  • 사전에 프로그래밍된 선형적 워크플로를 따르며 특정 기능을 수행합니다.
  • 결정은 미리 정의된 규칙과 구성에 기반합니다.

AI 에이전트 아이덴티티

  • 직접적인 사람의 개입 없이 작업을 수행하고, 의사결정을 내리며, 사용자나 다른 시스템과 상호작용하는 자율적 소프트웨어 엔터티를 나타냅니다.
  • 방대한 데이터 세트, 인공 지능, 자연어 처리(NLP)를 활용하여 실시간 입력에 따라 스스로 방향을 설정합니다.
  • 학습된 모델 및 알고리즘을 기반으로 시간이 지남에 따라 자체 행동을 학습, 적응 및 진화시키며 독립적인 의사결정을 내립니다.
  • 명확한 소유자, 아이덴티티 할당, 감사 통제가 없는 상태로 배포되는 경우가 많습니다.

휴먼, 머신, AI 에이전트 아이덴티티는 모두 결정을 내리기 위해 매우 민감한 데이터에 접근하지만, AI 에이전트는 시간당 백만 건 이상의 결정을 내릴 수 있는 것으로 추정되며, 이는 인간의 속도와 규모를 훨씬 능가하여 위험을 기하급수적으로 증가시킵니다.

자율형 AI 에이전트의 거버넌스 및 보안 격차

기존의 아이덴티티 보안 및 거버넌스 모델은 AI 에이전트를 관리하도록 설계되지 않았습니다. AI 아이덴티티가 기존 도구의 역량을 초월한 몇 가지 예시는 다음과 같습니다.

  • 휴먼 사용자를 위해 설계된 역할 기반 접근 제어(RBAC) 모델은 정기적 검토 주기를 전제로 하며, AI 에이전트의 실시간 자율 의사결정을 지원할 수 없습니다.
  • 시크릿 관리 시스템은 AI가 요구하는 동적이고 추론 기반의 접근이 아닌 정적인 접근을 가정하므로 AI 에이전트 관리 시 어려움을 겪습니다.
  • 규정 준수 프레임워크는 AI 에이전트와 같은 디지털 아이덴티티를 고려하지 않습니다. 많은 보안팀이 존재 자체를 인식하지 못하기도 하지만, 이들은 신뢰 경계를 넘나들 수 있습니다.

AI 에이전트가 초래하는 위험과 위협

오랜 보안 격언인 “거버넌스할 수 없다면, 보안할 수 없다”는 말은 에이전트 AI에도 그대로 적용됩니다. 그러나 AI 에이전트의 파악하기 어려운 특성은 거버넌스를 극도로 어렵게 만들어, 막대한 운영적, 평판적, 재정적 위험과 광범위하고 취약한 공격 표면을 생성합니다.

AI 에이전트 아이덴티티 위기와 AI 에이전트와 관련된 보안 위험은 대부분의 조직이 회사 내 에이전트 AI에 대해 기본적인 질문조차 답할 수 없다는 사실에서 비롯됩니다. 질문의 예시는 다음과 같습니다.

  • 현재 활성 상태인 AI 에이전트는 몇 개인가요?
  • 접근할 수 있는 시스템과 데이터는 무엇인가요?
  • 문제가 발생했을 때 어떻게 종료할 수 있나요?

결과적으로 AI 에이전트가 초래할 수 있는 위협은 매우 광범위합니다. 아이덴티티 보안 및 거버넌스 부재로 인해 발생할 수 있는 대표적인 위협 사례는 다음과 같습니다.

  • 침해된 AI 에이전트 자격 증명으로 인한 무단 접근 및 특수 권한 상승
  • 민감한 데이터를 무단 당사자에게 유출하는 것, 학습 데이터를 조작하여 AI 에이전트가 잘못된 결정을 내리거나 편향된 정보를 생성하게 만드는 것, 로깅, 오류 메시지 또는 기타 의도치 않은 채널을 통해 민감한 데이터를 의도치 않게 노출하는 것 등의 데이터 침해 및 데이터 오남용
  • 올바르게 관리되거나 보호되지 않은 새로운 민감 정보 생성
  • 무단 입력으로 AI 에이전트를 속여 잘못된 결정을 내리게 하거나 악의적인 행동을 수행하게 하는 적대적 공격
  • AI 에이전트에 요청을 과도하게 보내 가용성을 방해하는 서비스 거부 공격
  • AI 에이전트 소프트웨어에 악성 코드를 주입하여 동작을 조작
  • AI 에이전트가 과도한 리소스(예: CPU, 메모리 및 네트워크 대역폭)를 소비하여 시스템 불안정 또는 서비스 중단을 초래하는 리소스 고갈
  • 침해된 AI 에이전트에 의한 시스템 구성 무단 변경
  • AI 에이전트가 악의적으로 또는 의도하지 않게 시스템 파일이나 데이터베이스를 손상시키거나 변조

혁신 속도를 늦추지 않으면서 AI 에이전트를 거버넌스하기 위한 전략

휴먼 및 머신 아이덴티티와 마찬가지로, AI 에이전트도 리소스에 접근하고 작업을 수행하기 전에 식별 및 인증되어야 합니다. 이는 보안, 감사, 책임성을 보장하기 위해 필수적입니다.

에이전트 AI로 인한 위험과 위협을 완화하기 위해서는 아이덴티티 보안 및 거버넌스가 기존의 통제 방식이 아닌, 실시간 자율성을 전제로 설계되어야 합니다. 조직은 주기적이고 인간 중심적인 통제 방식에서 벗어나, 지속적이고, 동적이며, 컨텍스트를 인식하는 아이덴티티 중심 보안 및 거버넌스 전략으로 전환해야 합니다.

AI 에이전트를 보호하기 위한 핵심 기능

ID 보안 및 거버넌스를 AI 에이전트로 확장하기 위해, 조직은 이러한 개체에 내재하는 고유한 과제에 대처하여 위험을 최소화하는 솔루션을 찾아야 합니다. 다음과 같은 기능과 특징으로 그러한 목표를 달성할 수 있습니다.

  • AI 에이전트의 아이덴티티와 소유권을 생성 시점에 부여합니다.
  • 적시 및 의도 인식 접근 제어를 구현합니다.
  • 동적 자격증명 발급 및 회수를 가능하게 합니다.
  • 에이전트의 행동을 실시간으로 모니터링합니다.
  • 위험하거나 비정상적인 행동을 머신 속도로 탐지, 평가, 대응할 수 있습니다.
  • 규제 및 내부 표준에 부합하는 정책 기반 가드레일을 적용합니다.

에이전트의 행동, 접근, 책임에 대한 가시성 확보:

  • 중앙 집중식 아이덴티티 저장소를 통해 AI 에이전트를 아이덴티티로 관리하고, 접근 권한, 인가, 활동을 단일 뷰에서 확인합니다.
  • AI 에이전트가 상호작용하는 다양한 시스템과 애플리케이션에서 접근 데이터를 집계하여, 접근 패턴에 대한 종합적인 뷰를 제공합니다.
  • 보고 및 분석 기능을 통해 AI 에이전트 활동을 추적하고, 추세를 파악하며, 이상 징후를 탐지합니다.

AI 에이전트 생성 시 다음과 함께 아이덴티티 및 소유권을 부여합니다.

  • 각 에이전트가 시작부터 고유하고 검증 가능한 아이덴티티를 보유하도록 자동화된 AI 에이전트 아이덴티티를 프로비저닝합니다.
  • 거버넌스 및 보고에 활용할 수 있도록 AI 에이전트 아이덴티티에 에이전트 유형, 목적, 소유자 등 맞춤형 속성을 정의합니다.
  • 각 AI 에이전트에 대한 소유권 및 책임을 특정 개인 또는 팀에 할당할 수 있어야 합니다.

적시 및 의도 인식 접근 제어 구현:

  • 의도 인식 접근 제어로 확장할 수 있는 속성 기반 접근 제어(ABAC)를 통해 에이전트, 리소스, 컨텍스트의 속성에 따라 세밀한 접근 정책을 적용합니다.
  • AI 에이전트가 필요한 최소한의 특수 권한만 갖도록 접근 정책을 정의하고 시행하는 정책 엔진이 필요합니다.
  • AI 에이전트의 접근 요청 및 승인을 자동화하는 워크플로 및 티켓팅 시스템의 통합을 통해 적시 접근을 가능하게 하며, AI 에이전트 수명 주기 및 역할 변경 관리를 지원합니다.
  • AI 에이전트의 사용 사례에 맞게 조정 가능한 컨텍스트 기반 접근 정책을 정의하고 시행할 수 있는 의도 인식 접근 제어가 필요합니다.
  • AI 에이전트가 사기나 오류로 이어질 수 있는 상충되는 작업을 동시에 수행하지 않도록 직무 분리(SoD) 통제가 필요합니다.

동적 자격증명 발급 및 회수 기능 강화:

  • AI 에이전트 자격증명을 안전하게 저장하고 관리하기 위한 시크릿 관리 솔루션과 통합합니다.
  • 자격증명 도용 및 오용 위험을 줄이기 위해 자동화된 AI 에이전트 자격증명을 로테이션합니다.
  • 보안 사고 또는 정책 위반 발생 시 AI 에이전트 접근 권한을 자동 철회합니다.

실시간 AI 에이전트 행동 모니터링:

  • 데이터 접근, API 호출 및 시스템 리소스 소비를 포함한 AI 에이전트 활동을 지속적으로 모니터링합니다.
  • 행동 분석(정상적인 AI 에이전트 행동의 기준선을 설정하고 이상 징후를 탐지) 기능을 통합합니다.
  • 사용자 활동 모니터링(UAM)을 통해 AI 에이전트의 애플리케이션 및 시스템과의 상호작용을 추적하고 감사합니다.

위험하거나 비정상적인 AI 에이전트 행동 탐지 및 대응:

  • 비정상적이거나 위험한 AI 에이전트의 행동을 식별할 수 있어야 합니다.
  • 보안 정보 및 이벤트 관리(SIEM) 시스템 또는 기타 보안 시스템에서 발생하는 경고를 기반으로 자동화된 사고 대응 워크플로를 실행할 수 있어야 합니다.

새로운 아이덴티티 클래스를 위한 거버넌스 프레임워크의 필요성

에이전트 AI의 부상과 함께 등장한 자율형 디지털 아이덴티티의 범주는 아이덴티티 보안과 거버넌스에 대한 새로운 접근 방식을 요구합니다. AI 에이전트는 휴먼 및 머신과 동일하게, 즉 소유권 할당, 접근 범위 지정, 실시간 감독 및 책임성을 갖춘 방식으로 조직에서 보호 및 거버넌스할 수 있는 전문화된 솔루션을 필요로 합니다.

기존 도구에 의존하거나 도입을 미루는 것은 재앙을 초래할 수 있습니다. AI 에이전트가 거버넌스 능력을 앞지르기 전에 이를 확보하는 것이 무엇보다 중요합니다.

면책 조항: 이 기사에 포함된 정보는 정보 제공의 목적으로만 제공되며, 이 기사에 전달된 어떠한 내용도 어떠한 형태의 법적 조언을 구성할 의도가 없습니다. SailPoint는 법적 조언을 제공할 수 없으며, 관련 법률 문제에 대해서는 법률 전문가와 상담하시기를 권장합니다.

에이전트 AI 자주 묻는 질문(FAQ)

AI 에이전트 및 에이전트 AI란 무엇인가요?

AI 에이전트 및 에이전트 AI라는 용어는 환경 내에서 특정 목표를 달성하기 위해 인식하고, 의사결정을 내리며, 행동을 수행하는 자율형 시스템을 의미합니다. 이러한 에이전트는 필요한 데이터, 애플리케이션, 서비스에 접근하기 위해 여러 개의 머신 아이덴티티를 요구하는 경우가 많으며, 자체 수정이나 하위 에이전트 생성과 같은 추가적인 복잡성을 야기하기도 합니다.

AI 에이전트 아이덴티티의 세 가지 주요 범주는 무엇인가요?
  • 1. 기능적 아이덴티티(에이전트가 수행하는 역할):
  • 작업 중심 에이전트: 특정 작업을 수행하는 데 집중합니다.
  • 정보 검색 에이전트: 다양한 출처에서 정보를 찾아 필터링하는 데 특화되어 있습니다.
  • 추천 에이전트: 사용자 선호도에 기반해 제안합니다.
  • 대화형 에이전트/챗봇: 사용자와의 대화를 통해 지원을 제공하거나 간단한 작업을 수행합니다.
  • 자율형 에이전트: 사람의 개입 없이 독립적으로 작동하며 의사결정을 내립니다.

2. 페르소나 아이덴티티(에이전트가 자신을 표현하는 방식):

  • 유용한 조력자: 친절하고 협조적이며 사용자를 지원하는 데 집중합니다.
  • 전문가 조언자: 지식이 풍부하고 권위 있는 페르소나를 표현합니다.
  • 중립적 정보 제공자: 개인적 의견을 배제하고 사실 기반의 정보를 제공합니다.

3. 아키텍처 아이덴티티(에이전트의 구축 방식):

  • 단순 반사형 에이전트: 인지된 것에 직접적으로 반응합니다.
  • 모델 기반 반사형 에이전트: 내부 상태를 유지합니다.
  • 목표 기반 에이전트: 정의된 목표를 달성하기 위해 작동합니다.
  • 효용 기반 에이전트: 효용 함수를 극대화합니다.
  • 학습형 에이전트: 학습을 통해 지속적으로 성능을 향상시킵니다.
AI 에이전트 아이덴티티의 주요 속성은 무엇인가요?
  • 이름/ID: AI 에이전트를 고유하게 식별하는 식별자입니다.
  • 유형: AI 에이전트의 유형을 나타냅니다(예: 챗봇, 데이터 분석 에이전트, 자동화 에이전트 등).
  • 목적: AI 에이전트의 의도된 기능입니다.
  • 권한: AI 에이전트가 접근하도록 승인된 리소스 및 행동입니다.
  • 소유자/관리 책임자: 해당 AI 에이전트를 관리할 책임이 있는 개인 또는 팀입니다.
  • 신뢰 수준: AI 에이전트의 행동 및 위험 프로파일에 기반하여 할당된 신뢰 수준입니다.
에이전트 AI가 아이덴티티 보안 및 거버넌스에 초래하는 위험에는 어떤 것이 있나요?
  • 에이전트 침해: 악의적 행위자가 AI 에이전트를 침해하여 시스템과 데이터에 무단 접근할 수 있습니다.
  • 정책 편차: AI 에이전트는 시간이 지나면서 편향된 데이터나 알고리즘 변화로 인해 의도된 정책에서 벗어나고 이로 인해 의도하지 않은 결과가 발생할 수 있습니다.
  • 설명 불가성: AI 에이전트의 의사결정 과정이 불투명하여, 행동을 감사하거나 검증하기 어려울 수 있습니다.
    • 통제 불가능한 자동화: AI 에이전트가 의도치 않은 작업을 대규모로 수행하여 광범위한 혼란이나 피해를 초래할 수 있습니다.
    • 데이터 중독: 공격자가 학습 데이터 세트에 악성 데이터를 주입하여 AI 에이전트의 행동을 조작할 수 있습니다.
아이덴티티 보안 및 거버넌스는 어떻게 에이전트 AI 위험을 완화하나요?
  • AI 에이전트를 특수 권한이 있는 아이덴티티로 간주하고, 엄격한 접근 제어를 적용합니다.
  • AI 에이전트의 설계, 배포, 운영을 관리하는 구체적인 정책을 수립합니다.
  • AI 에이전트의 행동을 추적하고 감시할 수 있는 메커니즘을 구현하여, 의사결정 과정에 대한 통찰력을 제공합니다.
  • AI 기반 분석을 활용해 AI 에이전트의 행동에서 이상 징후를 탐지하고 잠재적 보안 위협을 식별합니다.
  • AI 에이전트에 대하여 사람이 감독과 통제를 유지하며, 필요 시 개입하여 AI의 결정을 재정의합니다.
  • 데이터 중독 공격을 방지하기 위해 철저한 데이터 검증 및 정제 절차를 적용합니다.
  • 정책 편차를 방지하고 정확성을 유지하기 위해 AI 모델의 성능을 지속적으로 모니터링하고 필요 시 재훈련합니다.
  • AI 에이전트를 운영 환경에 배포하기 전에 샌드박스 환경에서 철저히 테스트합니다.
  • AI 에이전트에게 최소 권한 원칙을 적용하여, 작업 수행에 필요한 최소한의 특수 권한만 부여함으로써 침해 시 피해를 제한합니다.
AI 에이전트 아이덴티티가 침해될 수 있는 사례에는 어떤 것이 있나요?
  • AI 에이전트 아이덴티티는 다른 디지털 아이덴티티와 마찬가지로 다양한 방법을 통해 침해될 수 있으며, 예시는 다음과 같습니다.
  • 적대적 공격: 공격자가 특정 입력값을 만들어 AI 에이전트를 속이고, 보안 통제를 우회하거나 에이전트의 행동을 조작합니다.
  • 코드 주입: 입력값 검증이나 기타 보안 메커니즘의 취약점을 이용해 악성 코드를 주입함으로써 자격증명을 탈취하거나, 에이전트의 동작을 조작 또는 원격 제어 권한을 획득합니다.
  • 침해된 서비스 계정: AI 에이전트가 사용하는 서비스 계정의 비밀번호가 취약하거나 제대로 관리되지 않는 경우, 크레덴셜 스터핑 공격으로 공격자가 제어권을 가질 수 있습니다.
  • 구성 오류: AI 에이전트의 잘못된 설정(예: 과도하게 방임적인 접근 통제, 비활성화된 보안 기능, 기본 자격증명 등)이 민감한 정보를 노출하거나 취약점을 만들어 공격자가 이를 악용할 수 있습니다.
  • 데이터 중독: 공격자가 학습 데이터 세트에 악성 데이터를 삽입할 수 있습니다. 이러한 경우 AI 에이전트는 편향되거나 잘못된 패턴을 학습하고 잘못된 결정을 내리거나 악의적인 행동을 수행하게 됩니다.
  • 종속성 취약점: 서드파티 라이브러리 및 종속성에 의존하는 AI 에이전트는 해당 종속성에 취약점이 존재할 경우 공격에 노출될 수 있으며, 공격자는 이를 악용하여 에이전트를 침해할 수 있습니다.
  • 내부자 위협: AI 에이전트 시스템에 접근 권한이 있는 악의적인 내부자는 자격증명을 훔치거나, 구성을 조작하거나, 악성 코드를 삽입할 수 있습니다.
  • 악성 AI 에이전트 구성 요소: 사이버 범죄자가 온라인 저장소나 마켓플레이스를 통해 악성 AI 구성 요소를 배포함으로써, 개발자가 이를 AI 에이전트에 포함시켜 멀웨어가 주입될 수 있습니다.
  • 특수 권한 상승: 공격자는 AI 에이전트의 소프트웨어나 설정의 취약점을 이용하여 상위 특수 권한을 획득하고, 에이전트가 의도한 접근 범위를 넘어선 리소스에 접근할 수 있습니다.
  • 유출된 API 키/시크릿: AI 에이전트가 리소스 접근에 사용하는 API 키나 시크릿이 안전하게 저장되지 않을 경우, 공격자가 이를 탈취해 에이전트를 가장할 수 있습니다.
날짜: 2025년 12월 2일읽는 시간: 4분
AI 및 머신 러닝사이버 보안아이덴티티 보안