Drei wichtige Lehren
Aus dem Phänomen ChatGPT lassen sich drei wichtige Lehren ziehen, die auf jedes Programm zur Identitätsverwaltung angewendet werden können
1. Menschen sind immer noch wichtig
Viele sehen hinter ChatGPT auch den Versuch, eine neue Artwork von Suchmaschine zu etablieren und den derzeitigen Markt aufzurütteln. Wie bei Suchmaschinen ist jedoch sowohl der Mensch, der die Frage stellt, wichtig, als auch die Menschen hinter der Programmierung der KI selbst. Im Bereich der Identitäten kann man an KI denken, die Zugriffsrechte empfehlen kann, die auf der Grundlage von Zugriffsrechten in Peer-Gruppen generiert wurden. In diesem Fall kann die Software program-Lösung diese Empfehlungen zwar auf der Grundlage dessen, was andere Personen im gesamten Netzwerk tun, kuratieren, doch ist zu Beginn trotzdem noch menschliches Eingreifen erforderlich, denn vorher muss festgestellt werden, wer die wahren Friends sin Arten und welche von Zugriffsrechten und Berechtigungen auf der Grundlage von (stets neu zu bewertenden) Rollen gewährt werden dürfen.
2. Datenqualität ist entscheidend
Betrachten wir noch einmal das oben genannte Beispiel der Geburtstagskarte: Angenommen, ein Nutzer erhält auf diese Anfrage hin eine ganze Reihe gefälschter Reden eines Politikers, den er sich wünschte, die ebenfalls im Netz kursieren – dann ist das Ergebnis nicht sehr genau undesteller wird verwirren. Ähnlich ist es bei der Identitätsverwaltung, daher ist es nicht so einfach, schlicht ein KI-Device anzuschließen, denn man bedenke: In diesem wichtigen Phase der IT-Sicherheit spielen Governance, Compliance, Prüfkontrollen und reibungslose Arbeitsabläufe eine wichtige. Damit ein Identitätsmanagement-Device funktioniert, muss es mit hochqualitativen Daten gefüttert werden, um überwachen zu können, wer Zugriff auf welche Bereiche hat, warum dieser Zugriff gewährt wurde, für wie lange – und so weiter. Für ein leistungsfähiges Identitätsmanagement kann die Einspeisung von Daten aus mehreren Quellen sehr schnell problematisch werden, insbesondere dann, wenn die Daten in unterschiedlichen Formaten oder Modellen gespeichert wurden.
3. KI ist kein Allheilmittel
Viele befürchten, dass ChatGPT bedeutet, Kinder bräuchten ihre Hausaufgaben nicht mehr selbst erledigen, oder Fachartikel, Gedichte, ganze Bücher, Komposition, Gemälde oder Kommentare (wie dieser) würden automatisch generiert werden. In einigen Fällen magazine dies zutreffen, doch in den meisten Fällen sollte KI nur zur Optimierung der Entscheidungsfindung oder der Prozesse eingesetzt werden, neben dem Menschen, damit sie ihre volle Wirkung entfalten kann. Eine wichtige Erkenntnis aus der jüngsten Begeisterungm KI lautet daher, dass sie auf solide Grundprozesse aufgesetzt werden sollte, um den größten Nutzen zu erzielen. Auch bei ChatGPT muss man wissen, welche Fragen man stellen will und wie man sie zu stellen, damit man die besten Informationen erhält.
Mit anderen Worten: Im Identitätsmanagement müssen die KI-Funktionen von IAM-Administratoren und Sicherheitsverantwortlichen in die richtige Richtung gelenkt werden. Um KI optimum nutzen zu können, muss sie in Verbindung mit Menschen eingesetzt werden, damit bessere Entscheidungen getroffen werden können. KI kann zwar problemlos zur Automatisierung manueller oder sich wiederholender Prozesse eingesetzt werden, aber es wird immer menschliches Eingreifen erforderlich sein, um eine große Anzahl von Identitäten verwalten zu können, die Zugriff auf eine wachsende Liste von Cloud-basiertend Infstrungentiungen.
.