Themen in diesem Beitrag
Was verstehen wir unter Agentic AI?
… diese Frage stellten wir uns vergangenen Dienstag in unserem wöchentlichen Morgenmeeting bei den Swiss AI Experts. Und wie heisst es so schön: Frage sieben Experts und Du bekommst acht oder mehr Antworten!
Wie beispielsweise:
- Agenten können selbständig Arbeiten erledigen. 👌
- Ja, und Agenten können selbständig vorgegebene Ziele mit vorgegebenen Werkzeugen (Tools) erreichen – und dabei die oben erwähnten Aufgaben erledigen. 🛠️
- Ja, und in einer Matrix von Autonomie und Automatisation sind die Agenten dem Quadranten hohe Automation und hohe Autonomie zuzuteilen. 🙄
- usw.
Finden wir eine Antwort, wenn wir eine einfache Abgrenzung zu den bisher «bekannten» KI Assistenten (personalisierten (Chat)GPT’s, personalisierten Copilots u.a.) formulieren können?
Versuchen wir einen Vergleich zum realen Leben
Assistent Leo unterstützt seine Chefin so, dass sie effizienter ist, als wenn sie sich selbst um alles kümmert. Richtig?
Nun die interessante Frage: «Und wie autonom geht er – Assistent Leo – dabei vor?»
Es ist mir bewusst, dass dies im realen Arbeitsalltag sehr unterschiedlich ist. Es gibt nicht die eine «richtige» Autonomiestufe.
Ich wage jedoch zu behaupten, dass mit steigendem Vertrauen zwischen Chefin und Assistent Leo, beispielsweise aufgrund erfolgreicher Zusammenarbeit bei einfacheren Aufgaben, die Autonomie in komplexeren Aufgaben steigen wird.
Eine Autonomiestufe weiter kann der Assistent Leo bei komplexen Aufgaben selbständig den besten Weg zur Lösung finden. Mit komplex meine ich, unter sich verändernden und teilweise nicht oder nur schwer vorhersehbaren Umständen. Assistent Leo muss in diesem Fall wissen, wie die Chefin in dieser Situation entscheiden würde, resp. nach welchen Entscheidungskriterien entschieden werden soll.
Im realen Leben benötigt es oft mehrere Jahre der Zusammenarbeit – in guten wie in schlechten Zeiten 😉 – um diese Fähigkeit, diese Kompetenz zu entwickeln.
Erlaubt mir den etwas gewagten Vergleich mit KI
ChatGPT (öffentlich verfügbarer Standard)
= neuer Mitarbeiter, dem alles erklärt werden muss.
Personalized GPT / Copilot
= mehr oder weniger gut instruierter oder «eingearbeiteter» Mitarbeiter. Das hängt von der Qualität der Instruktion ab – bei Mitarbeitenden wie auch bei GPTs/ Bots.
KI-Assistent
= für eine bestimmte Aufgabe sehr genau instruierter Mitarbeiter. Sei dies aufgrund der oben erwähnten langen und vielseitigen Zusammenarbeit (Memory) oder aufgrund einer ganzheitlichen, strukturierten und sehr detaillierten Anweisung an den KI-Assistenten.
KI-Agent
= z.B. ein selbständiger Versicherungsagent.
Anders als Assistenzen entscheidet der Agent auch selbständig, was zu tun ist.
Die KI-Assistenz bucht Flüge und Hotels für die von ihrer Chefin vorgegebenen Reise.
Der KI-Agent bestimmt selbst, wann welche Reise notwendig ist. Dazu benötigt er ein Ziel, das zu erreichen ist. Beispielsweise: Besuche alle Top-10 Kunden zweimal im Jahr.
Beispiel eines Agenten im realen Leben
Beispiel des Versicherungsagenten. Versicherungsexperten bitte ich um Verzeihung für die «over-simplyfied» Beispiele. 😉
Stellen wir uns vor, Leo Muster erhält bei einer Versicherungsgesellschaft die Rolle der verantwortlichen Regionen-Leitung.
Er erhält
- Umsatz- und Gewinnziele
- einen Produktkatalog
- ein Toolset: Werkzeugkasten, um mit vorhandenen Produkten den angezielten Gewinn zu erwirtschaften.
Im Weiteren gibt die Versicherung Regeln vor: keine Gesetzesbrüche oder Verstösse, zufriedene Kunden, proaktive Entwicklung der Mitarbeitenden usw.
Die Aufgabe des Versicherungsagenten ist es nun, mit den gegebenen «Mitteln», unter Einhaltung der gegebenen Regeln, die gegebenen Ziele zu erreichen.
Die Aufgabe resp. die Aufgaben sind also komplexer – d.h. teilweise unvorhersehbar, weil nicht alle Umstände beeinflusst werden können – und sollen autonomer, d.h. nicht innerhalb eines vorgegebenen Handlungsrahmens – erledigt werden.
Auf diesem hergeleiteten Verständnis der Rolle eines Agenten führen wir nun die Definition eines KI-Agenten weiter, in Abgrenzung zu KI-Assistenten und ganzen Ketten von KI-Assistenten:
- KI Assistenten, erledigen vordefinierte Aufgaben nach genauer Instruktion.
- Folglich können mehrere KI Assistenten nacheinander mehrere Arbeitsschritte durchführen und somit Teile einer Prozesskette oder ganze Prozesse nach und nach abarbeiten.
- Wir haben also eine Kette von KI Assistenten. Wenn jedem Assistenten eine genau definierte Aufgabe oder eine Abfolge von genau definierten Aufgaben zugeteilt ist, so ist im Umkehrschluss das zu erreichende Ziel bekannt und der Weg dahin definiert.
Nun frage ich Dich: Wie realistisch ist dies im realen Leben? Ich vermute, dass an diesem Punkt viele Leserinnen und Leser, die gedanklich mein hergeleitetes Beispiel vor Augen haben, es als eher selten erachten, dass alles nach Plan läuft – vor allem wenn wir unsere Chefin zufrieden stellen sollten – nicht?
Aber wir müssen auch ehrlich sein, heute sind schon sehr viele Prozesse soweit standardisiert und automatisiert, dass vieles wie von selbst funktioniert.
Die entscheidende Frage ist, wie werden Ausnahmen gehandhabt?
Also wenn etwas anders läuft als im Normalfall. Klassische IT-Systeme melden hier einen Fehler. Ohne Behebung durch einen Menschen geht es nicht weiter.
An diesem Punkt kommen wir meines Erachtens nun zum spannenden Teil der Frage: «Was verstehen wir unter Agentic AI?»
- Ein KI Agent soll ein vorgegebenes Ziel unter Einhaltung vorgegebener Regeln (regelbasiert) – und diese Regeln dürfen auf keinen Fall vergessen gehen – mit vorgegebenen Mitteln erreichen.
- Ein KI Agent soll mit Ausnahmefällen umgehen können. Das heisst, vom Normalfall abweichende Lösungswege finden – soweit es diese gibt (autonom).
- Ein KI Agent soll erst bei der Ausschöpfung aller Möglichkeiten, unter der Nutzung aller ihm zur Verfügung stehender Mittel UND innerhalb des vorgegeben Handlungsrahmen (vorgegebenen Regeln) zurückmelden, dass ein Ziel nicht zu erreichen ist.
Das Alignement Problem mit Agentic AI
Neben der Herausforderung der einzuhaltenden Spielregeln ist es schwieriger, einer autonomen Maschine ein Ziel vorzugeben als einem autonomen Menschen. Denn dieser verfügt über einen gesunden Menschenverstand.
In seinem Buch Nexus beschreibt Yuval Noah Harari diese Herausforderung als «Alignment Problem» ausführlich.
Auszüge aus Nexus von Yuval Noah Harari:
Wäre beispielsweise die Büroklammer-KI ein menschlicher Bürokrat gewesen, hätte sie erkannt, dass die Zerstörung der Menschheit für die Aufgabe Produktion von Büroklammern, wahrscheinlich nicht das Ziel war. Aber da Computer keine Menschen sind, können wir uns nicht darauf verlassen, dass sie Fehlentwicklungen bemerken und anzeigen. |
Agentic AI im Einsatz – (m)ein Deja-Vu
Als langjähriger BI (Business Intelligence) Experte habe ich bezüglich KI-Agenten ein gewisses Deja-Vu.
Self-Service BI wurde einst als die Lösung für viele Engpässe Organisationen gesehen. Wie sich jedoch rasch herausstellte, waren es nicht die technischen Herausforderungen, die viele Self-Service-BI-Initiativen zu erliegen brachten, sondern zu einem wohl grösseren Teil organisatorische Herausforderungen resp. fehlendes Wissen und kulturelle Defizite. In vielen Fällen fehlte eine klare Governance: die Spielregeln und der Handlungsrahmen für das Vorhaben.
Mein Gratistipp an dieser Stelle: Definiert den Handlungsrahmen und die Spielregeln (Governance für Agentic AI) bevor mit der «autonomen» Entwicklung von Agenten im Unternehmen begonnen wird.
Denn ich bin überzeugt, dass die technologische Entwicklung in Richtung «Agentic AI» weitergehen wird. Bald werden wir Tools und Applikationen haben, die es auch Nicht-Experten ermöglichen, KI-Agenten zu basteln resp. mit der notwendigen Expertise “gute” KI Agenten zu konzipieren und umzusetzen.
Lösung: Ansätze aus der Enterprise Architecture?
Für ein Unternehmen sehe ich hiermit verbunden die Herausforderung eines ganzheitlichen Konzeptes, eines Bebauungsplanes, einer «Enterprise Architecture» bis hin zur Idee, einem «Digital Twin» des Unternehmens auf diese Weise näher zu kommen.
KI Agenten werden nur so gut sein wie
- Unsere Zielvorgabe das «Alignment Problem» löst: Nicht A belohnen und auf B hoffen!
- Die Spielregeln, die Governance auf die Anwendungsfälle angepasst sind. Die Werte der Firma und das Handeln nach «Gesundem Menschenverstand» müssen explizit vorgegeben werden – soweit dies möglich ist.
- Die Bereitstellung der richtigen Mittel, der richtigen Tools. Dies wird bei der aktuellen und zukünftig wohl noch höheren Entwicklungsgeschwindigkeit ebenfalls keine leichte Aufgabe sein.
In diesem Sinne erachte ein Zusammenbringen menschlicher und artifizieller Kompetenzen als sehr sinnvollen Ansatz – oder wie es Marc Vontobel von Starmind bezeichnet “Human Intelligence (HI) and Artificial Intelligence (AI)” – und freue mich im Sinne von «Coopetition» auch auf neue Arten der Zusammenarbeit.
Es grüsst Euch Adi, ganz ohne KI.
Nachtrag mit KI
Ich konnte es nicht lassen und habe noch ChatGPT zum Thema befragt (100% KI, nicht nachbearbeitet!).
Prompt: «Wie definieren wir Agentic AI?»
ChatGPT o1, 14.1.25, 11:30 am
Unter „Agentic AI“ (auf Deutsch etwa „handelnde“ oder „zielgerichtet agierende KI“) versteht man Künstliche Intelligenz, die nicht nur passiv auf Eingaben reagiert, sondern eigenständig Ziele verfolgt und dafür Handlungen in ihrer Umwelt ausführt. Diese Form der KI zeichnet sich durch folgende wesentliche Merkmale aus:
- Autonomie:
Agentische KI-Systeme können selbstständig Entscheidungen treffen, ohne auf ständige menschliche Anweisungen angewiesen zu sein. Dabei berücksichtigen sie sowohl ihre programmierte Zielsetzung als auch situatives Feedback aus der Umgebung.
- Zielorientierung:
Diese Systeme „wissen“, welche Ziele sie erreichen sollen, und leiten daraus Handlungen ab. Sie planen, priorisieren und passen ihre Vorgehensweise dynamisch an neue Gegebenheiten an.
- Kontinuierliches Lernen und Anpassen:
Eine agentische KI kann aus Erfahrungen lernen, indem sie Rückmeldungen aus vergangenen Handlungen nutzt. So wird das Verhalten iterativ verbessert und an Veränderungen im Umfeld angepasst.
- Interaktion mit der Umgebung:
Agentische KI-Systeme tauschen sich aktiv mit ihrer Umwelt aus – sei es eine digitale Umgebung (z. B. das Internet, lokale Datenspeicher) oder die physische Welt (z. B. durch Robotik). Dadurch können sie eigenständig Informationen sammeln und Aktionen durchführen.
- Eigenständige Handlungskette:
Entscheidend ist, dass eine agentische KI auch längerfristige, zusammenhängende Handlungsabläufe ausführen kann. Sie greift dabei auf verschiedene Werkzeuge und Ressourcen zurück, ohne dass Menschen jeden einzelnen Schritt manuell anstoßen müssen.
Kurz gesagt: Agentische KI geht über reine „Input-Output“-Systeme hinaus. Während einfache KI-Systeme oft nur eine vordefinierte Aufgabe (z. B. Bilderkennung) erfüllen, können agentische KI-Systeme umfangreichere Aufgabenpakete selbst strukturieren und erledigen – bis hin zum Ergreifen eigener (unvorhergesehener) Initiativen innerhalb der vordefinierten Ziele und Grenzen.
Was gefällt Dir besser?
Die ChatGPT-Versprechungen oder meine KI-freie Interpretation?
Hast du Fragen zum Thema Agentic AI?