IAM für Künstliche Intelligenz

In unseren Insights haben wir vor einigen Monaten aufgezeigt, welche Potenziale Künstliche Intelligenz in modernen Unternehmen entfalten kann – von effizienter Prozessautomatisierung bis hin zu intelligenten Entscheidungssystemen (https://www.ipg-group.com/blog/expertenberichte/ki-blog). Doch mit der zunehmenden Autonomie dieser Systeme wächst auch der notwendige Druck, sie strukturiert zu steuern, zu protokolieren und abzusichern.

Insbesondere der Zugriff auf sensible Daten und Systeme durch KI-Agenten wirft neue Fragen auf: Welche Identität steckt hinter einer maschinellen Handlung? Wer trägt die Verantwortung? Und wie lassen sich diese Zugriffe nachvollziehbar und regelkonform gestalten? Zudem gilt zu beachten, dass der Austausch von Daten zwischen KI Agenten über neue Arten von Schnittstellen stetig steigen wird.

Dieser Folgebeitrag richtet sich an Unternehmen, die KI bereits produktiv einsetzen oder dies gerade planen. Er zeigt anhand konkreter Use Cases und Begriffsdefinitionen auf, warum Identitätsmanagement – gerade für KI – zur zentralen Voraussetzung für Sicherheit, Transparenz und Governance wird. Denn eines ist klar: Im Bereich Identitäten und Zugriffssteuerung muss sich noch viel bewegen, wenn KI skalierbar und vertrauenswürdig betrieben werden soll.

Was ist ein KI-Agent der einen KI-Workload abarbeitet?

Konkret sprechen wir in diesem Umfeld von Agentic AI – beziehungsweise handelt es sich um den gängigen Begriff der Lösungen von KI Anbietern. Agentic AI ist eine spezielle Form  von KI-Applikationen welche befähigt wurde definierte Ziele zu verfolgen, ohne dass eine enge menschliche Aufsicht und Interaktion im Prozess nötig ist. 

OpenAI beschreibt diese Art von KI System wie folgt: "Sie zeichnen sich durch die Fähigkeit aus, Handlungen auszuführen, die über einen längeren Zeitraum hinweg konsistent zur Erreichung von Zielen beitragen, ohne dass ihr Verhalten vorher festgelegt wurde." 

Ein KI-Agent ist also eine softwarebasierte Einheit, die innerhalb eines definierten Aufgabenbereichs eigenständig handelt – etwa durch das Verarbeiten von Informationen, das Treffen von Entscheidungen oder das Auslösen von Aktionen in angebundenen Systemen. Solche Agenten können in Form eines Chatbots, eines Dokumentenverarbeitungsmoduls oder einer Prognosekomponente auftreten. Gemeinsam ist ihnen, dass sie zunehmend autonome Rollen in betrieblichen Abläufen übernehmen und damit als digitale Akteure gleichwertig zu Mitarbeitern in Prozesskontexten auftreten, deren Handeln strukturiert steuerbar und nachvollziehbar sein muss. Damit ein solcher Agent sicher in eine Unternehmensumgebung eingebunden werden kann, benötigt er eine klar definierte digitale Identität – vergleichbar mit der eines Mitarbeitenden, aber zugeschnitten auf seine Funktion als technische Instanz.

Im Rahmen dieser Identitätszuordnung wird ein KI-Agent typischerweise als sogenannte Machine Identity geführt. Diese beschreibt eine digitale Identität, die nicht an eine natürliche Person gebunden ist, sondern an eine Maschine, ein System oder eben eine künstliche Intelligenz. Machine Identities bestehen aus technischen Zugangsmitteln wie Tokens, Zertifikaten oder Dienstkonten und dienen der Authentifizierung sowie Autorisierung in verschiedenen Systemen. Doch im Gegensatz zu klassischen Hintergrundprozessen übernehmen KI-Agenten auch inhaltliche Verantwortung – etwa bei der Beurteilung von Rechnungen oder der Empfehlung geschäftsrelevanter Entscheidungen. Dadurch verschiebt sich der Fokus von rein technischer Sicherheit hin zu steuerbarer Verantwortung.

In der Praxis übernehmen KI-Agenten konkrete Aufgabenpakete – sogenannte KI-Workloads. Ein solcher Workload beschreibt die Gesamtheit der Aktivitäten, die ein KI-Agent innerhalb eines bestimmten Prozesses ausführt: von der Datenaufnahme über die Verarbeitung bis hin zur Ausgabe oder Interaktion mit anderen Systemen. Diese Workloads können einfache Aufgaben automatisieren oder komplexe Abläufe eigenständig steuern. Ihre zunehmende Bedeutung in zentralen Geschäftsprozessen verlangt nach einem strukturierten Umgang – insbesondere, wenn sie dauerhaft und systemübergreifend operieren.

Der fachliche und technische Rahmen eines Agentic AI Agents ist typischerweise wie folgt definiert:

Im Kern wird der AI Agent definiert, üblicherweise auf Basis einer vorhandenen AI Plattform oder eines AI Frameworks – hier gilt es das Thema IAM entsprechend einzubetten.

Der Agent wird mit Zielvorgaben versorgt und es wird im Vorfeld definiert, welche Werkzeuge (Systeme, Anwendungen, Spreadsheets, IT Tools, etc.) zur Abarbeitung der Aufgaben verwendet werden dürfen.

Es ist zudem nicht unüblich, dass Agenten die Aufgaben als «digitales Teamplay» lösen und spezialisierte (Sub) Agents für bestimmte Teilaufgaben zur Verfügung stehen.

Die Agenten haben dabei zumeist Zugriff auf:

  • Unternehmensdaten
  • Unternehmensanwendungen
  • Frei zugängliche Daten im Internet
  • Durch AI generierte Daten

Die Agenten interagieren darüber hinaus mit «Human Stakeholdern»:

  • In der definierten Abteilung des Unternehmens
  • Abteilungs, oder Teamübergreifend
  • Mit anderen Agenten, die in anderen Teams einen Human Stakeholder aufweisen

Dieser Kontext kann in Umfang und Komplexität noch deutlich ausgeweitet vorliegen, soll hier aber den nötigen Bedarf an Governance und Identitäten-Management aufzeigen. Zumal diese Agenten oft in kritischen Prozessbereichen, wie dem Einkauf und HR, zum Einsatz kommen.

Use Cases für AI Agents oder Workloads mit Identität, zwei Beispiele:

Automatische Verarbeitung von Eingangsrechnung – Fokus Identität

In einem mittelgrossen Unternehmen wird eine KI-basierte Lösung eingeführt, um die Verarbeitung von Eingangsrechnungen zu automatisieren. Die Lösung übernimmt die gesamte Eingangsverarbeitung: Sie liest Rechnungen aus dem E-Mail-Postfach aus, extrahiert die relevanten Informationen mittels OCR, prüft die formale und inhaltliche Richtigkeit der Daten, und löst – bei unkritischen Fällen – direkt die Buchung im ERP-System aus. Bei Abweichungen oder Schwellenwertüberschreitungen wird ein manueller Freigabeprozess über ein internes Workflow-Tool gestartet.
Diese KI-Lösung übernimmt damit einen zentralen Workload im Bereich der Finanzabwicklung – und zwar rund um die Uhr, über Systemgrenzen hinweg. Um diese Aufgaben erfüllen zu können, benötigt sie technische Benutzerkonten in verschiedenen Systemen: im E-Mail-System zum Abrufen eingehender Rechnungen, im Filesystem zur temporären Ablage, im ERP zur Erfassung von Buchungen, im Workflow-Tool zur Initiierung von Freigabeprozessen sowie in der Archivdatenbank zur revisionssicheren Ablage.
Jedes dieser Benutzerkonto benötigt Berechtigungen in den jeweiligen Systemen – doch keines dieser Konten steht für sich allein und darf daher aus Governance-Sicht auch nie isoliert betrachtet werde, da sonst der Audit-Trail des gesamten Vorgangs nicht vollständig ist. Daher ist es entscheidend, dass diese technischen Konten einer übergeordneten logischen Identität zugeordnet werden, welche die KI-Rechnungsverarbeitung abbildet. Diese logische Identität wiederum muss einer natürlichen Person im Unternehmen zugewiesen sein, beispielsweise der verantwortlichen Führungskraft im Bereich Finance Automation (ob die Zuweisung an eine natürliche Person notwendig ist und wie lange noch, behandelt dieser Blog Post von IPG: https://www.ipg-group.com/blog/expertenberichte/ki-blog.
Das zentrale Identity and Access Management (IAM) System übernimmt seine tragende Rolle exakt bei diesen Fragestellungen. Es aggregiert die Informationen aus den verschiedenen Zielsystemen, erkennt technische Konten manuell oder automatisch und führt sie zu einer logischen Identität zusammen – zum Beispiel mit dem Namen „Service Automatisierte Rechnungsverarbeitung“. Diese Identität wird im IAM nicht nur als Bündel technischer Berechtigungen verstanden, sondern als eigenständige digitale Identität mit definierten Aufgaben, Gültigkeitszeiträumen und Verantwortlichkeiten.
Das IAM-System stellt sicher, dass diese digitale Identität stets einer natürlichen Person zugeordnet ist – inklusive klarer Vertretungsregelungen für Urlaubs- und Abwesenheitszeiten oder zum Beispiel beim Austritt der zuständigen Person. So ist jederzeit nachvollziehbar, wer im Unternehmen letztlich die Verantwortung für die KI-gestützte Rechnungsverarbeitung trägt. Im Falle von Sicherheitsprüfungen oder internen Audits kann somit exakt ausgewiesen werden, welche Person welche Systemzugriffe – direkt oder indirekt über eine technische Identität mit KI– ermöglicht oder ausgelöst hat.

Darüber hinaus bietet das IAM eine wichtige Governance-Funktion: Es überwacht, ob Zugriffsrechte konsistent sind, ob Konten doppelt vergeben wurden oder eine Funktionstrennung verletzt wurde. Vielleicht setzt man in Zukunft ja bewusst zwei KI Agents ein, um eine Funktionstrennung sauber abzubilden. 
In Summe stellt das IAM-System also die zentrale Plattform dar, um einen automatisierten Workload wie die KI-basierte Eingangsrechnungsverarbeitung nicht nur effizient, sondern auch sicher, nachvollziehbar und regelkonform zu betreiben. Es verbindet technische Benutzerkonten, funktionale Identitäten und natürliche Personen zu einem belastbaren Identitätsmodell – und schafft damit die Grundlage für Vertrauen und Kontrolle in automatisierten Prozessen.
 

Chatbot statt Intranet – Fokus Zugriffe

Stellen wir uns vor, ein Unternehmen möchte im Intranet einen intelligenten Chatbot einsetzen. Dieser soll Mitarbeitenden dabei helfen, auf verschiedene interne Informationen zuzugreifen – etwa auf eigene HR-Daten wie Urlaubstage oder Gehaltsinformationen, den aktuellen Status ihrer Projekte, KPIs aus BI-Systemen oder den Stand ihrer IT-Tickets. Der Nutzen ist klar: einfache, zentrale Informationsabfrage über natürliche Sprache. Doch sobald es um sensible Daten geht, muss sichergestellt werden, dass der Chatbot nur solche Informationen ausliefert, zu denen der jeweilige Nutzer berechtigt ist. Eine klassische Herausforderung im Bereich Zugriffssicherheit.

Um diese Zugriffskontrolle technisch sauber und flexibel umzusetzen, bietet sich eine Architektur an, die auf dem Prinzip von Policy Enforcement Point (PEP) und Policy Decision Point (PDP) basiert. Der Chatbot selbst übernimmt die Rolle des PEP: Er fängt die Benutzeranfrage ab und prüft, ob es sich um eine geschützte Aktion handelt. Entscheidet der Chatbot, dass eine Autorisierung notwendig ist, wird die Anfrage an einen PDP weitergeleitet. Dort wird geprüft, ob der anfragende Benutzer – je nach Rolle, Kontext, Uhrzeit oder Abteilung – berechtigt ist, die gewünschte Information zu erhalten. Erst wenn der PDP dies freigibt, liefert der Bot die entsprechende Antwort.

In der Praxis lassen sich Lösungen von Anbietern wie Immuta, Aserto, Privacera und Oso nutzen, um diese Architektur umzusetzen – je nach konkretem Anwendungsfall in Kombination oder einzeln.

Immuta

Immuta beispielsweise eignet sich ideal für den Schutz von Datenquellen wie Data Warehouses oder Data Lakes. Der Chatbot kann über APIs oder Abfragen auf diese Plattformen zugreifen, etwa um aktuelle Umsatzzahlen oder Personalstatistiken anzuzeigen. Immuta stellt dabei sicher, dass nur die jeweils erlaubten Daten ausgeliefert werden – etwa durch dynamische Maskierung von Gehältern oder durch Filterung von Zeilen, auf die der Nutzer keinen Zugriff hat. Die Entscheidung, was ein Nutzer sehen darf, trifft Immuta anhand zentral verwalteter Richtlinien, die auf Rollen, Attributen und Kontext basieren.

Aserto

Aserto wiederum bietet sich an, um die Autorisierung innerhalb des Chatbots selbst oder auf der API-Ebene umzusetzen. Wenn der Bot zum Beispiel eine interne API aufruft, um Informationen zu Projekten oder IT-Tickets abzurufen, leitet Aserto diese Anfrage an seine Policy-Engine weiter. Diese basiert auf dem Open Policy Agent (OPA) und trifft Entscheidungen gemäss definierter Regeln – zum Beispiel: „Projektleiter dürfen Teamstatus abrufen“, oder „Zugriff auf sensible APIs ist nur während der Arbeitszeit über das Firmen-VPN erlaubt“. So wird nicht nur die Identität, sondern auch der Kontext bei jeder Anfrage berücksichtigt.

Privacera

Privacera übernimmt in dieser Architektur eine übergeordnete Rolle im Bereich Data Governance und Compliance. Es stellt sicher, dass alle Datenzugriffe nachvollziehbar und dokumentiert sind – zum Beispiel im Rahmen der DSGVO. Darüber hinaus kann Privacera Richtlinien zentral verwalten und an unterschiedliche Datenquellen wie Snowflake, S3 oder BI-Plattformen durchreichen. Im Zusammenspiel mit dem Chatbot bedeutet das: Alle sensiblen Datenzugriffe, die der Bot vermittelt, sind abgesichert, protokolliert und regelkonform.

Oso

Oso hingegen ist eine besonders entwicklerfreundliche Lösung, die direkt im Anwendungscode des Chatbots integriert werden kann. Mit Oso lassen sich Zugriffsrichtlinien in einer leicht verständlichen Sprache definieren – beispielsweise: „Ein Mitarbeiter darf nur eigene HR-Daten sehen“ oder „Ein Teamleiter darf auf die Daten seiner direkten Mitarbeitenden zugreifen“. Diese Regeln sind versionierbar, testbar und direkt im Git-Workflow des Entwicklerteams eingebunden. Das macht Oso besonders geeignet für schnell wachsende, intern entwickelte Bots oder SaaS-Anwendungen.

Im Zusammenspiel dieser vier Komponenten entsteht eine moderne, sichere Architektur: Der Chatbot dient als Interaktionsschnittstelle und PEP. Die tatsächliche Zugriffserlaubnis wird entweder über Oso im Code entschieden, über Aserto an API-Schnittstellen kontrolliert, durch Immuta auf Datenebene geregelt oder durch Privacera verwaltet, protokolliert und revisionssicher gemacht. Jede Benutzeranfrage durchläuft diesen Sicherheitsmechanismus, bevor sie eine Antwort erhält. Dadurch ist gewährleistet, dass niemand über den Chatbot unberechtigt auf sensible Informationen zugreifen kann – egal ob im HR-, Finance-, IT- oder Projektkontext.

Risiken und Herausforderungen

Es ist bereits problemlos möglich für Geschäftsprozesse wertsteigernde agentenbasierte Systeme auf der Grundlage der derzeitigen Fähigkeiten von LLM (Large Language Model) zu entwickeln. Die Nutzung von Agentic AI bietet Unternehmen schon heute erhebliche Effizienzsteigerungen zu erzielen.

Dies erfordert nach unserer Betrachtung aber bestimmte Grundvoraussetzungen. Nebst den klassischen Problemen wie die Datenqualität oder die Integration in bestehende Systeme, kann es bei Mitarbeitenden Bedenken hinsichtlich Fairness oder Ethik geben. Genau deshalb muss künstliche Intelligenz transparent agieren. Es muss gewährleistet sein, dass Aktionen der KI-Systeme eindeutig nachvollziehbar sind und im Einklang mit den Unternehmensrichtlinien stehen. Ein robustes Identitäts- und Zugriffsmanagement ist hierfür unerlässlich. Gerade bei Personalprozessen ist nicht gewünscht, dass ein KI-Agent sämtliche besonders schützenswerte Daten einsehen kann.

Wir sehen im Kontext IAM und der Transaktionen durch Agenten in Prozessen drei Handlungsfelder:

  1. Definition und Begrenzung des Handlungsrahmens durch einen Agenten
    a. Eine definierte digitale Identität und die Steuerung dieser gewährt nur den nötigen und relevanten Zugriff auf Daten und Systeme und der digitale Aktionsradius ist klar abgegrenzt (ähnlich einer Rollendefinition für einen Mitarbeiter
     
  2. Protokollierung und Nachvollziehbarkeit
    a. Alle Interaktionen und Entscheidungen inkl. der jeweiligen Teilergebnisse werden geloggt und mit der Identität verknüpft und können im Bedarfsfall transparent nachvollzogen werden
     
  3. Kontrolle und Feedback
    Eine digitale Identität erlaubt eine granulare Prozesssteuerung der Agenten und zum Beispiel das Einfordern einer Bestätigung durch einen Human Stakeholder bei hochkritischen Zugriffen auf Daten. Oder entsprechend die Bestätigung einer Entscheidung, wenn Schwellwerte überschritten werden.

Ausblick und Fazit

In den nächsten fünf Jahren wird sich das Zusammenspiel von Künstlicher Intelligenz und Identity & Access Management (IAM) grundlegend verändern – sowohl in der technischen Umsetzung als auch in der strategischen Bedeutung für Unternehmen. Während IAM bisher vor allem als Rückgrat für Benutzerverwaltung, Zugriffssteuerung und Berechtigungsnachweise diente, wird es zunehmend zur zentralen Instanz für Vertrauensmanagement in automatisierten und KI-gesteuerten Systemen.

Ein entscheidender Wandel wird darin bestehen, dass KI-Instanzen selbst als handelnde Identitäten begriffen und entsprechend verwaltet werden müssen. Heute sind Dienstkonten oder technische Benutzer oft nur ein Anhang der IT – künftig werden KI-gestützte Prozesse als autonome digitale Akteure auftreten, die Entscheidungen treffen, Prozesse auslösen und mit anderen Systemen interagieren. Damit stellt sich die Frage: Wer ist diese „Identität“, welche Rechte darf sie haben, wer ist verantwortlich für ihr Handeln – und wie lässt sich das über System- und Zeitgrenzen hinweg nachvollziehen?

IAM-Systeme werden daher deutlich dynamischer und kontextsensitiver werden müssen. Statt statischen Rollenmodellen werden flexible, attributbasierte und kontextabhängige Zugriffskontrollmodelle dominieren, die in Echtzeit bewerten, ob eine Aktion zulässig ist. Gleichzeitig müssen IAM-Plattformen in der Lage sein, Beziehungen zwischen natürlichen und künstlichen Identitäten abzubilden – etwa indem eine KI-Identität dauerhaft oder zeitlich begrenzt einer verantwortlichen Person zugewiesen ist. Diese Zuweisung muss revisionssicher dokumentiert, transparent steuerbar und in Notfällen sofort übersteuerbar sein.

Auch regulatorisch wird sich der Druck erhöhen. Nationale und internationale Regelwerke wie der EU AI Act oder entsprechende schweizerische Datenschutzrichtlinien verlangen künftig einen nachvollziehbaren, ethisch und rechtlich einwandfreien Umgang mit KI-Systemen. IAM wird dabei zur tragenden Instanz, wenn es darum geht, maschinelle Entscheidungen menschenzentriert zu kontrollieren – durch technische Verankerung von Verantwortlichkeit, Einschränkungen und Prüfpfaden.

Technisch gesehen wird sich IAM enger mit anderen Disziplinen verzahnen: mit Security Information and Event Management (SIEM) zur Echtzeitüberwachung, mit Data Governance für kontrollierte Datennutzung und mit Policy-Engines, die Richtlinien zentral interpretieren. Die Grenze zwischen Identitätsmanagement, Berechtigungssteuerung und intelligenter Prozesslenkung wird verschwimmen – zugunsten eines ganzheitlichen Sicherheits- und Kontrollmodells.

IAM wird in den kommenden Jahren vom klassischen Berechtigungswerkzeug zur strategischen Plattform für die sichere Nutzung von KI. Wer frühzeitig beginnt, KI-Identitäten strukturiert zu erfassen, Verantwortlichkeiten verbindlich zuzuordnen und Zugriffe kontextsensitiv zu steuern, schafft die Voraussetzung für eine automatisierte Zukunft, die nicht nur effizient, sondern auch vertrauenswürdig und regelkonform ist. Hierzu empfiehlt IPG die Erstellung Machine IAM Policy oder die Ergänzung der bestehenden IAM-Richtlinie.  KI mag der Motor der Digitalisierung sein – doch IAM ist das Lenksystem.

Dieser Text wurde mit Unterstützung von KI geschrieben, Aufbau, Themenauswahl und inhaltliche Expertise sind aber durch die Autoren eingeflossen.

Autoren:

Stephan Pfeiffer
Geschäftsführer X-INTEGRATE Software & Consulting GmbH
Foto von Claudio Fuchs - IPG - Experts in IAM
Claudio Fuchs
CEO IPG Information Process Group AG

Wie geht es für Ihr Unternehmen weiter?

Kontakt aufnehmen und mit IPG Ihre IAM-Sicherheit auf das nächste Level bringen!

​IPG steht Ihnen mit umfassender 360-Grad-Expertise im Bereich des Anforderungsmanagements zur Seite. Wir unterstützen Unternehmen dabei, klare und präzise Anforderungen zu definieren, um erfolgreiche Identity-Management-Projekte zu gewährleisten. Unsere erfahrenen Berater helfen Ihnen, effektive Kommunikationsstrategien zu entwickeln, um den administrativen Aufwand zu reduzieren und die Effizienz zu steigern.​

Lassen Sie uns darüber sprechen! Buchen Sie jetzt ein unverbindliches Beratungsgespräch.

Teaser Berechtigungen v2
Blog 15.03.22

Berechtigungen mit Hilfe künstlicher Intelligenz

Sind die Berechtigungen der Mitarbeitenden noch den Aufgaben entsprechend angemessen oder haben sich diese im Laufe der Zeit verändert?

Blog 14.03.25

Die Bedeutung des Anforderungsmanagements im IAM

Ein effektives Anforderungsmanagement ist entscheidend für den Erfolg von IAM-Projekten. Entdecken Sie in unserem Blog, wie es klare Ziele setzt, Missverständnisse vermeidet und Compliance sichert.

Teaserbild IAM Prozess Expertenbericht
Blog 12.12.22

IAM-Prozesse – Betrachtungswinkel und Prozesssichtweisen

Die Einführung einer IAM-Lösung verändert Arbeitsabläufe. Die Erhebung und Modellierung der Prozesse sind entscheidend für Verständnis und Akzeptanz. Mehr dazu in unserem Blog!

Teaserbild Expertenbericht 360 Grad Assessment IAM
Blog 19.12.22

IAM-Projekt – 360 Grad Assessment

360° Assessment – wozu ein übergreifendes Assessment, wenn man «nur» ein IAM braucht? Unsere Fach-Expertin für IAM erläutert nun, wie wir in einem «360° Assessment» Unternehmen dabei unterstützen, erfolgreich ein IAM-Projekt zu etablieren. Mehr dazu in unserem Blog.

Teaserbild Managed Service IPG
Blog 16.01.25

IAM Managed Service: Der Schlüssel zur digitalen Sicherheit

Die Vorteile von IAM Managed Services: umfassende Überwachung, schnelle Fehlerbehebung und transparente Kostenstruktur für maximale Sicherheit und Effizienz im Unternehmen. Lesen Sie hier mehr.

Teaserbild nDSG CH
Blog 11.05.23

Neues Datenschutzgesetz – Schutz vor Sanktionen dank IAM

Ab September 2023 gilt in der Schweiz das totalrevidierte Datenschutzgesetz (nDSG). Was bedeutet es für Unternehmen und wie kann ein effektives IAM Unternehmen unterstützen, das neue Gesetz einzuhalten? Mit diesem Expertenbericht erhalten Sie einen detaillierten Überblick.

Teaserbild Expertenbericht IAMcloud Journey von IPG
Blog 30.03.23

Der Weg in die Cloud: Optimierung Ihres IAM

Identity Management aus der Wolke - vom On-Prem IAM zum Cloud IAM. Erfahren Sie, welche Best Practices für einen erfolgreichen Journey.

Blogbeitrag, wie Sie One Identity Safeguard und One Identity Manager verkuppeln
Blog 22.12.20

Administrationstiefe von IAM-Systemen

In unseren IAM-Projekten haben wir regelmäßig mit Prüferinnen und Prüfern der internen Revision zu tun. Insbesondere während der ersten Projektschritte ereilen uns immer wieder die Fragen: Woran erkenne ich denn jetzt im IAM-System, ob Herr Meier auf das Share XYZ Zugriff hat? Was sind aktuell seine wirksamen Berechtigungen?

Teaserbild Expertenbericht IAM Brownfield
Blog 08.07.24

Der Brownfield-Ansatz im Identity and Access Management

Die Modernisierung veralteter IAM-Systeme ist essenziell für Cybersicherheit. Der Brownfield-Ansatz minimiert Risiken und senkt Kosten durch eine schrittweise Migration auf zeitgemäße Lösungen.

Teaserbild_Expertenbericht NIS2
Blog 09.04.24

Cybersecurity Evolution: NIS-2

Unser Expertenbericht beleuchtet die Schlüsselrolle IAM bei der Umsetzung der NIS-2 Verordnung. Welche Punkte sind zu beachten. Lesen Sie hier mehr.

Blog 09.12.24

Smarte digitale Berechtigungskonzepte mit NEXIS 4.1

Digitale Berechtigungskonzepte sind der Schlüssel zu mehr IT-Sicherheit und Effizienz. Entdecken Sie, wie NEXIS 4.1 moderne Anforderungen erfüllt und Ihre Prozesse revolutioniert.

Teaserbild Expertenbericht Berechtigungsmanagement IAM
Blog 27.11.24

Sicheres Berechtigungsmanagement leicht gemacht!

Ein modernes IAM-System vereinfacht das Berechtigungsmanagement und schützt vor ungewolltem Zugriff. Erfahren Sie, wie Sie mit automatisierten Prozessen IT-Sicherheit und Compliance steigern.

Teaserbild_Expertenbericht_DORA_IAM
Blog 02.10.23

DORA: Stärkung der Resilienz im europäischen Finanzwesen

Sichere Einhaltung der Digitalen Betriebs Resilienz-Verordnung (DORA) der EU: Wir unterstützen Unternehmen im Finanzsektor mit geeigneter IAM-Strategie die Richtlinien einzuhalten. ✅ Mehr dazu in unserem Blog.

Header zum Expertenbericht Self-Sovereign Identity 1
Blog 23.04.25

Effektives Privileged Identity Management (PIM)

PIM, PAM, PUM – was steckt dahinter? Erfahren Sie, wie sich die drei Systeme unterscheiden, wie sie zusammenhängen und welche strategischen Rollen sie im Identitäts- und Zugriffsmanagement spielen.

Blog 07.03.25

RBAC: Klare Rollen, sichere Berechtigungen

Mit Role Based Access Control (RBAC) optimieren Sie Ihr Berechtigungsmanagement mit mehr Sicherheit, weniger Kosten und klare Prozesse. Erfahren Sie, wie Sie RBAC erfolgreich einführen!

Teaser Expertenbericht KI und IAM
Blog 13.12.24

Braucht KI eine digitale Identität?

KI wird zunehmend autonom und übernimmt wichtige Aufgaben in Unternehmen. Wie bleibt die Kontrolle über sensible Daten gewährleistet? Wir beleuchten die Notwendigkeit digitaler Identitäten für KI.

Blog 03.02.25

MIM End-of-Life: Strategien zur erfolgreichen Planung

Was kommt nach dem Microsoft Identity Manager? Wir zeigen Ihnen, wie Sie den Übergang erfolgreich planen – mit Optionen von schrittweiser Migration bis hin zu neuen Lösungen. Lesen Sie hier mehr.

DORA 24 Teaserbild
Blog 10.07.24

DORA-Compliance: Was Finanzunternehmen jetzt wissen müssen

DORA und IAG: Wie Finanzinstitute die Anforderungen der neuen Verordnung erfüllen und die IT-Sicherheit verbessern können. Lesen Sie hier mehr.

Teaserbild IAM Experte Identity Provider
Blog 02.12.22

Was ist ein Identity Provider (IdP)?

Ist es möglich, mit einem einzigen Identity Provider (IdP) sowohl interne als auch externe Web-Anwendungen zu betreiben?

Bild zum Expertenbericht Customer IAM
Blog 30.06.21

Customer IAM - die praktische Einordnung ins IAM

Wie sieht das CIAM von der konkret, praktischen Seiten aus? Was ist dabei zu berücksichtigen und vor welche Herausforderungen steht man dabei?