Agentic AI hat sich von der akademischen Theorie hin zur unternehmensweiten Implementierung entwickelt. KI-Agenten, die in der Lage sind, Absichten zu erkennen, Ziele zu verfolgen und eigenständig ohne menschliches Eingreifen zu handeln, stellen aktuell die am schnellsten wachsenden Identitätstypen im Unternehmenskontext dar. Trotz ihres Zugriffs auf vertrauliche Informationen bleiben diese Identitäten jedoch weitgehend unverwaltet und entziehen sich den klassischen Mechanismen der Identity Security und Governance.
Worin sich AI Agents von menschlichen und maschinellen Identitäten unterscheiden
Wie Menschen und Maschinen verfügen auch KI-Agenten über Identitäten – ihre Ausprägung und Verwaltung unterscheiden sich jedoch grundlegend von anderen Identitätstypen. Menschliche Identitäten, Maschinenidentitäten und Identitäten von KI-Agenten greifen auf Ressourcen zu und erfordern eine Authentifizierung, benötigen jedoch jeweils unterschiedliche Ansätze für Identity Security und Governance.
Menschliche Identitäten
- Umfassen Mitarbeitende, Auftragnehmende, Partner, Kundinnen und Kunden sowie Lieferanten.
- Agieren in klar definierten Rollen, wobei der Zugriff in der Regel an ihre Funktion, Verantwortlichkeiten und Attribute innerhalb der Organisation gekoppelt ist.
- Treffen Entscheidungen auf Basis von menschlichem Urteilsvermögen, Erfahrung und ethischen Überlegungen.
Maschinenidentitäten
- Repräsentieren Anwendungen, Dienste oder Geräte.
- Folgen vorgegebenen, linearen Workflows mit spezifischen Aufgaben.
- Treffen Entscheidungen auf Grundlage festgelegter Regeln und Konfigurationen.
Identitäten von KI-Agenten
- Stehen für autonome Softwareeinheiten, die Aufgaben ausführen, Entscheidungen treffen und mit Nutzenden oder anderen Systemen ohne direktes menschliches Eingreifen interagieren.
- Agieren selbstständig auf Basis von Echtzeitdaten, nutzen umfangreiche Datensätze, künstliche Intelligenz und natürliche Sprachverarbeitung.
- Lernen, passen sich an und entwickeln ihr Verhalten kontinuierlich weiter, indem sie eigenständige Entscheidungen auf Basis ihrer erlernten Modelle und Algorithmen treffen.
- Werden häufig ohne klare Verantwortlichkeiten, Identitäszuweisung oder Prüfmechanismen eingeführt.
Während menschliche Identitäten, Maschinenidentitäten und Identitäten von KI-Agenten auf hochvertrauliche Informationen zugreifen, um Entscheidungen zu treffen, wird geschätzt, dass ein KI-Agent mehr als eine Million Entscheidungen pro Stunde treffen kann. Dies ist ein Umfang und eine Geschwindigkeit, die weit über die menschlichen Möglichkeiten hinausgehen und das Risiko exponentiell erhöhen.
Governance- und Sicherheitslücken bei autonomen KI-Agenten
Traditionelle Modelle der Identitätssicherheit und Governance wurden nicht für die Verwaltung von KI-Agenten entwickelt. Die Identitäten von KI-Agenten haben die Fähigkeiten dieser Werkzeuge schlicht überholt. Beispiele hierfür sind:
- Rollenbasierte Zugriffskontrollmodelle (RBAC), die für menschliche Benutzer und regelmäßige Überprüfungszyklen konzipiert wurden, können die autonome, in Echtzeit getroffene Entscheidungsfindung von KI-Agenten nicht abbilden.
- Systeme zum Security Management stoßen bei KI-Agenten an ihre Grenzen, da sie von statischem Zugriff ausgehen, während KI dynamischen, auf Schlussfolgerungen basierenden Zugriff benötigt.
- Compliance-Rahmenwerke berücksichtigen digitale Identitäten wie KI-Agenten nicht – viele Sicherheitsteams wissen nicht einmal, dass diese existieren, obwohl sie Vertrauensgrenzen überschreiten können.
Risiken und Bedrohungen durch KI-Agenten
Das bewährte Sicherheitsprinzip „Was Sie nicht steuern können, können Sie nicht schützen“ gilt auch für agentische KI. Die schwer greifbare Natur von KI-Agenten erschwert jedoch deren Governance erheblich und führt zu erheblichen operativen, reputativen und finanziellen Risiken sowie zu einer großen, anfälligen Angriffsfläche.
Die Identitätskrise rund um KI-Agenten und die damit verbundenen Sicherheitsrisiken entstehen vor allem daraus, dass viele Unternehmen grundlegende Fragen zu agentischer AI in ihrer Organisation nicht beantworten können, darunter:
- Wie viele KI-Agenten sind aktuell aktiv?
- Auf welche Systeme und Daten können sie zugreifen?
- Wie können sie im Notfall abgeschaltet werden?
Die daraus resultierenden Bedrohungen sind vielfältig. Zu den häufigsten Risiken, die aus fehlender Identity Security und Governance für KI-Agenten entstehen, gehören unter anderem:
- Unbefugter Zugriff und Privilegienausweitung durch kompromittierte Zugangsdaten von KI-Agenten
- Datenlecks und Datenmissbrauch, etwa durch die Weitergabe sensibler Informationen an Unbefugte, die Manipulation von Trainingsdaten zur Beeinflussung von Entscheidungen oder zur Verbreitung verzerrter Inhalte sowie die unbeabsichtigte Offenlegung sensibler Daten über Protokolle, Fehlermeldungen oder andere Kanäle
- Erzeugung neuer sensibler Informationen, die nicht angemessen gesteuert oder geschützt sind
- Adversariale Angriffe, bei denen manipulierte Eingaben genutzt werden, um KI-Agenten zu Fehlentscheidungen oder schädlichen Aktionen zu verleiten
- Denial-of-Service-Angriffe, bei denen KI-Agenten durch eine hohe Anzahl von Anfragen überlastet und in ihrer Verfügbarkeit eingeschränkt werden
- Einschleusen von Schadcode in die Software von KI-Agenten zur gezielten Manipulation ihres Verhaltens
- Ressourcenerschöpfung durch übermäßige Nutzung von CPU, Speicher oder Netzwerkbandbreite, was zu Instabilität oder Systemausfällen führen kann
- Unbefugte Änderungen an Systemkonfigurationen durch kompromittierte KI-Agenten
- KI-Agenten, die unbeabsichtigt oder absichtlich Systemdateien oder Datenbanken beschädigen oder korrumpieren
Eine Strategie zur Steuerung von KI-Agenten, ohne Innovationen zu bremsen
Wie bei menschlichen und maschinellen Identitäten müssen auch KI-Agenten eindeutig identifiziert und autorisiert werden, um auf Ressourcen zuzugreifen und Aktionen auszuführen. Dies ist entscheidend für Sicherheit, Auditing und Nachvollziehbarkeit.
Um Risiken und Bedrohungen durch agentische KI zu minimieren, müssen Identity Security und Governance für autonome Echtzeitprozesse und nicht für veraltete Kontrollmechanismen ausgelegt sein. Unternehmen müssen von periodischen, menschzentrierten Kontrollen zu kontinuierlichen, dynamischen und kontextsensitiven, identitätszentrierten Sicherheits- und Governance-Strategien wechseln.
Zentrale Funktionen zur Absicherung von AI Agents
Um Identity Security und Governance auf KI-Agenten auszuweiten, benötigen Unternehmen Lösungen, die die spezifischen Herausforderungen dieser Entitäten adressieren und ihre inhärenten Risiken minimieren. Die folgenden Funktionen und Fähigkeiten stellen sicher, dass:
- Identität und Eigentümerschaft von KI-Agenten bereits bei der Erstellung festgelegt werden.
- Just-in-Time- und intentbasierte Zugriffskontrollen implementiert sind.
- Dynamische Vergabe und Entziehung von Zugangsdaten ermöglicht werden.
- Das Verhalten von KI-Agenten in Echtzeit überwacht wird.
- Riskante oder anomale Aktionen von KI-Agenten in Maschinengeschwindigkeit erkannt, bewertet und adressiert werden können.
- Richtlinienbasierte Leitplanken durchgesetzt werden, die mit regulatorischen und internen Standards im Einklang stehen.
Sichtbarkeit von Verhalten, Zugriffen und Verantwortlichkeiten von KI-Agenten:
- Ein zentrales Identity-Repository zur Verwaltung von KI-Agenten als Identitäten und für eine einheitliche Sicht auf deren Zugriffsrechte, Berechtigungen und Aktivitäten.
- Aggregierte Zugriffsdaten aus verschiedenen Systemen und Anwendungen, mit denen KI-Agenten interagieren, um ein umfassendes Bild ihrer Zugriffsmuster zu erhalten.
- Reporting- und Analysefunktionen zur Nachverfolgung von Aktivitäten, zur Identifikation von Trends und zur Erkennung von Anomalien.
Zuweisung von Identität und Verantwortlichkeit bei der Erstellung von KI-Agenten:
- Automatisierte Bereitstellung von KI-Agenten-Identitäten, um sicherzustellen, dass jeder Agent von Anfang an eine eindeutige und überprüfbare Identität besitzt.
- Definition individueller Attribute wie Agententyp, Zweck und Verantwortlicher zur Unterstützung von Governance und Reporting.
- Möglichkeit, für jeden KI-Agenten eine klare Verantwortlichkeit bei einer bestimmten Person oder einem Team zu verankern.
Just-in-Time- und intentbasierte Zugriffskontrollen:
- Attributbasierte Zugriffskontrollen (ABAC), die granulare Richtlinien auf Basis von Eigenschaften des Agenten, der Ressource und des Kontexts ermöglichen und um Intent erweitert werden können.
- Eine Policy-Engine zur Definition und Durchsetzung von Zugriffsrichtlinien, sodass KI-Agenten nur die minimal notwendigen Berechtigungen erhalten.
- Integrationen mit Workflow- und Ticketing-Systemen zur Automatisierung von Zugriffsanfragen und -freigaben sowie zur Unterstützung von Just-in-Time-Zugriff und Lifecycle-Management.
- Intentbasierte Zugriffskontrollen zur Definition und Durchsetzung kontextabhängiger Richtlinien, zugeschnitten auf spezifische Einsatzszenarien von KI-Agenten.
- SoD-Kontrollen (Segregation of Duties), um zu verhindern, dass KI-Agenten widersprüchliche Aufgaben ausführen, die zu Betrug oder Fehlern führen könnten.
Durchsetzung dynamischer Verwaltung und Entziehung von Zugangsdaten:
- Integration mit Secrets-Management-Lösungen zur sicheren Speicherung und Verwaltung von Zugangsdaten von KI-Agenten.
- Automatisierte Rotation von Zugangsdaten zur Reduzierung von Missbrauchs- und Diebstahlrisiken.
- Automatisierter Entzug von Zugriffsrechten im Falle von Sicherheitsvorfällen oder Richtlinienverstößen.
Echtzeitüberwachung des Verhaltens von KI-Agenten:
- Kontinuierliche Überwachung von Aktivitäten wie Datenzugriff, API-Aufrufen und Ressourcennutzung.
- Integrationen für Behavioral Analytics zur Etablierung eines Normalverhaltens und zur Erkennung von Abweichungen.
- User Activity Monitoring (UAM) zur Nachverfolgung und Auditierung von Interaktionen mit Anwendungen und Systemen.
Erkennung und Reaktion auf riskantes oder anomales Verhalten von KI-Agenten:
- Fähigkeit, ungewöhnliches oder risikobehaftetes Verhalten von KI-Agenten zu identifizieren.
- Automatisierte Incident-Response-Workflows auf Basis von Alerts aus SIEM- oder anderen Sicherheitssystemen.
KI-Agenten erfordern ein neues Governance-Modell für eine neue Klasse von Identitäten
Mit dem Aufkommen von KI-Agenten ist die Kategorie der autonomen digitalen Identitäten entstanden, die einen neuen Ansatz für Identity Security und Governance erfordert. KI-Agenten benötigen spezialisierte Lösungen, mit denen Unternehmen sie ebenso absichern und steuern können wie menschliche und maschinelle Identitäten: durch zugewiesene Verantwortlichkeiten, klar definierte Zugriffsrechte, Echtzeitüberwachung und durchgängige Nachvollziehbarkeit.
Verzögerungen oder der Versuch, mit bestehenden Tools auszukommen, führen unweigerlich zu Problemen. Es ist entscheidend, KI-Agenten abzusichern, bevor sie sich der Kontrolle entziehen.
HINWEIS: DIE IN DIESEM ARTIKEL ENTHALTENEN INFORMATIONEN DIENEN AUSSCHLIESSLICH INFORMATIONSZWECKEN UND STELLEN KEINE RECHTSBERATUNG DAR. SAILPOINT KANN KEINE RECHTSBERATUNG LEISTEN UND EMPFIEHLT, BEI RECHTLICHEN FRAGEN EINE RECHTSBERATUNG IN ANSPRUCH ZU NEHMEN.