4 Februar 2025
Key takeways
Was wäre, wenn die KI mehr tun könnte, als auf unsere Anweisungen zu warten – was wäre, wenn sie die Initiative ergreifen, ihre eigenen Entscheidungen treffen und aus den Erfahrungen lernen könnte?
Das ist das Versprechen von Agentic AI: autonome Systeme, die bestimmte Ziele ohne ständiges menschliches Eingreifen erreichen können. Im Gegensatz zu traditionellen Large Language Models (LLMs), die sich nur auf ihre Trainingsdaten verlassen, um Ergebnisse zu generieren, nutzen KI-Agenten aktiv externe Tools wie APIs, Websuchen, Datensätze und andere Agenten (Gutowska, 2024). Daher können KI-Agenten auf Echtzeitinformationen zugreifen, Maßnahmen effektiv planen und Ergebnisse liefern, die auf komplexe Aufgaben und Ziele zugeschnitten sind.
Geschichte der KI-Agenten
Die Geschichte der agentischen Systeme lässt sich bis in die 1950er und 1960er Jahre zurückverfolgen, als KI-Pioniere wie Alan Turing und John McCarthy den Grundstein für Maschinen legten, die intelligentes Verhalten simulieren. Frühe KI-Agenten waren einfache regelbasierte Systeme wie ELIZA (1966), die menschliche Konversationen durch Musterabgleich emulierten. In den 1970er und 1980er Jahren hatte sich KI zu Entscheidungsträgern wie MYCIN, einem Expertensystem für die medizinische Diagnose, entwickelt. In den 1990er Jahren gab es einen Trend zu lernenden Agenten, wobei Systeme wie TD-Gammon Reinforcement Learning einsetzten, um Spiele zu meistern. In den 2000er Jahren entstanden intelligente Agenten wie AlphaGo, die durch Deep Learning in der Lage sind, in dynamischen Situationen zu arbeiten. Heute fördert Agentic AI Innovationen im Gesundheitswesen, bei selbstfahrenden Autos und in der Robotik und weist uns in eine Zukunft mit vollständig autonomen Systemen. (Deep Mind Systems, 2024)
Eigenschaften von KI-Agenten
Um diese komplexen Aufgaben zu bewältigen, verwenden KI-Agenten eine Kombination aus Argumentation, Werkzeuginteraktion und Gedächtnis, die es ihnen ermöglicht, ihre Antworten kontinuierlich zu verfeinern.
Fähigkeiten:
Geleitet von Menschen definierten Zielen sind diese KI-Agenten reaktiv und proaktiv und eröffnen Wege für dynamischere und intelligentere technische Lösungen (Forbes, 2024).
Beispiel
Um den Prozess der KI-Agenten genauer zu verstehen, stellen Sie sich einen KI-Agenten vor, der einem Benutzer bei der Entscheidung über die ideale Zeit für den Besuch eines bestimmten Pariser Museums helfen soll. Der Agent muss feststellen, wann das Museum höchstwahrscheinlich weniger überfüllt sein wird. Während der LLM möglicherweise keinen Zugriff auf die Besucherzahlen der Museen hat, kann der Agent auf eine öffentliche API zugreifen, die historische Besucherdaten enthält, und feststellen, wann der Museumsverkehr geringer war. Darüber hinaus kann der Agent mit einem anderen auf Tourismus spezialisierten Agenten kommunizieren, um herauszufinden, wann weniger wichtige Veranstaltungen in der Stadt stattfinden. Durch die Kombination dieser Informationen kann der Agent die beste Woche für den Besuch bestimmen und sie dem Benutzer vorschlagen.
Arten von Agenten
Basierend auf dem Komplexitätsgrad der vorgeschlagenen Aufgabe können KI-Agenten mit unterschiedlichen Fähigkeiten entworfen werden. Während einfachere Agenten ideal für einfache Ziele sind, sind anspruchsvollere Agenten notwendig, um komplexere und dynamischere Herausforderungen zu bewältigen. Von den einfachsten bis zu den fortschrittlichsten sind die folgenden Arten von Wirkstoffen (Petrova-Dimitrova, 2022; Gutowska, 2024; aws, 2024):
Simple Reflex Agents: Dies ist die grundlegendste Art von KI-Agenten, die für bestimmte Aufgaben mit vordefinierten Regeln geeignet sind. Sie haben kein Gedächtnis oder fortgeschrittene Denkfähigkeiten, also führen sie einfach vorprogrammierte Aktionen als Reflexe aus. Zum Beispiel ist ein Thermostat, das die Temperatur auf der Grundlage eines festgelegten Schwellenwerts anpasst, ein einfaches Reflexmittel.
Modellbasierte Agenten: Ein modellbasierter Agent ist wie ein einfacher Reflexagent, aber er verwendet das Gedächtnis, um ein internes Modell der Welt aufrechtzuerhalten. Er kann die gespeicherten Informationen, seine Reflexe und seinen Zustand nutzen, um seine Entscheidungen zu unterstützen. Ein Staubsaugerroboter erkennt beispielsweise während seiner Fortbewegung Hindernisse wie Möbel, navigiert um sie herum und speichert ein Modell der Bereiche, die er bereits gereinigt hat.
Zielorientierte Agenten: Diesen Agenten steht ein internes Modell ihrer Arbeitsumgebung zur Verfügung und sie sind darauf ausgelegt, spezifische, komplexe Ziele zu erreichen. Durch die Bewertung und Antizipation verschiedener möglicher Ergebnisse können sie eine Abfolge von Aktionen suchen und planen, um die Aufgabe zu erledigen und das Endziel zu erreichen, wobei sie immer den optimalen Weg wählen. Diese Suche und Planung verbessert ihre Leistung im Vergleich zu einfachen und modellbasierten Agenten. So wertet ein Navigationssystem beispielsweise mehrere Routen aus, um das Ziel zu erreichen. Unter Berücksichtigung der Regel, die schnellste Route auszuwählen, identifiziert der Agent die beste Option und empfiehlt sie dem Benutzer.
Nutzenbasierte Agenten: Im Gegensatz zu zielbasierten Agenten, die sich ausschließlich auf das Erreichen eines bestimmten Ziels konzentrieren, verlassen sich nutzenbasierte Agenten auf eine Nutzenfunktion, um die potenziellen Ergebnisse verschiedener Optionen zu bewerten und zu vergleichen. Diese Nutzenfunktion bietet eine Möglichkeit, den Erfolg zu messen, insbesondere im Umgang mit Unsicherheiten, und hilft dem Agenten, den Weg zu wählen, der den Gesamtnutzen maximiert. Beispielsweise kann ein Versorgungsunternehmen nach einem Flug suchen, der die Reisezeit optimiert und den Gesamtpreis des Tickets minimiert.
Lernende Agenten: Diese Agenten sind so konzipiert, dass sie sich im Laufe der Zeit verbessern, indem sie aus Erfahrungen lernen und gleichzeitig ihr Basiswissen nutzen. Obwohl sie die gleichen Fähigkeiten wie andere Agenten haben und möglicherweise ziel- oder nutzenbasiert sind, differenzieren sie sich durch den kontinuierlichen Einsatz von Eingabe- und Feedback-Mechanismen (Reinforcement Learning), um sich an ungewohnte Situationen anzupassen. Darüber hinaus setzen sie einen Problemgenerator ein, um neue Aufgaben zu erstellen und vorzuschlagen und innovative Lösungen vorzuschlagen, die ein kontinuierliches Lernen und Anpassen ermöglichen. Beispielsweise kann ein Lernagent in einem Filmstreaming-Dienst Empfehlungen basierend auf dem Anzeigeverlauf eines Benutzers abgeben. Wenn der Benutzer mehr Filme anschaut und Bewertungen abgibt, passt der Agent seine Vorschläge an und verfeinert die Empfehlungen, um sie den Vorlieben des Benutzers anzupassen.
Multi-Agenten
Über die zuvor beschriebenen Arten von Agenten hinaus erfordern auch komplexere Aufgaben das Wissen mehrerer KI-Agenten. Multiagentensysteme bestehen aus zahlreichen Entscheidungsträgern, die jeweils auf einen bestimmten Teil der Hauptaufgabe spezialisiert sind und zusammenarbeiten, um ein gemeinsames Ziel zu erreichen. In Multi-Agenten-Systemen interagieren alle Agenten in einer gemeinsamen Umgebung und berücksichtigen dabei die Ziele, Erinnerungen und Aktionspläne der anderen. Die Kommunikation in diesen Systemen kann entweder direkt oder indirekt erfolgen, indem die Umgebung, in der sie betrieben werden, verändert wird. Darüber hinaus bieten Multi-Agenten-Systeme im Gegensatz zu einzelnen Agenten, die mit zunehmender Komplexität immer schwieriger zu verwalten und zu skalieren sind, eine effizientere Alternative. Einzelne Agenten stehen häufig vor Herausforderungen, wie z. B. der Verwaltung einer überwältigenden Anzahl von Tools, was zu einer schlechten Entscheidungsfindung bei der Auswahl des zu verwendenden Tools führen kann. Wenn die Aufgaben komplexer werden, kann es für einen einzelnen Agenten schwierig sein, viele Spezialisierungsbereiche wie Planung, Forschung oder mathematische Problemlösung zu verfolgen und zu verwalten, was zu Ineffizienz und eingeschränkter Leistung führt.
Im Gegensatz dazu bietet der dezentrale Aufbau von Multi-Agenten-Systemen erhebliche Vorteile in Bezug auf Genauigkeit, Anpassungsfähigkeit und Skalierbarkeit. Diese Systeme übertreffen Systeme mit nur einem Agenten, da sie die Arbeit auf spezialisierte Agenten verteilen und einen gemeinsamen Ressourcenpool verwenden. Anstatt dass mehrere Agenten redundant dieselben Richtlinien erlernen, können Multi-Agent-Systeme außerdem erlernte Erfahrungen austauschen, was Zeit spart und die Effizienz und Gesamtproduktivität steigert. Diese Methode ermöglicht auch die reibungslose Integration zusätzlicher Agenten oder Komponenten, wodurch die Integrationsprobleme vermieden werden, mit denen herkömmliche Systeme häufig konfrontiert sind.
In Systemen mit mehreren Agenten können Agenten auf verschiedene Weise eine Verbindung herstellen. Diese Verbindungen ermöglichen die Kommunikation und Koordination zwischen den Agenten, was sich auf die Effizienz und Skalierbarkeit des Systems auswirkt. Die folgende Abbildung zeigt einige Arten von Architekturen, die häufig verwendet werden (LangGraph):
Vorteile und Einschränkungen
Agentische Systeme, ob mit einem oder mehreren Agenten, bieten erhebliche Verbesserungen im Vergleich zu herkömmlichen KI-Modellen wie LLMs. LLMs sind zwar sehr gut darin, Antworten aus statischen Trainingsdaten zu generieren, aber ihnen fehlen die dynamischen, kollaborativen Fähigkeiten agentischer Systeme.
Wie bereits erwähnt, bringen diese Fortschritte bei agentischen Systemen branchenübergreifend erhebliche Vorteile mit sich und verbessern die Effizienz, Anpassungsfähigkeit und Entscheidungsfindung (Forbes, 2024):
- Ein wesentlicher Vorteil ist die Autonomie, da diese Systeme Aufgaben selbstständig erledigen können, so dass keine ständige menschliche Aufsicht erforderlich ist. Dies ermöglicht schnellere Reaktionen in wichtigen Umgebungen wie dem Gesundheitswesen und autonomen Autos.
- Ein weiterer Vorteil ist die Anpassungsfähigkeit – Agentensysteme können aus ihren Erfahrungen lernen, ihre Leistung im Laufe der Zeit mithilfe von Techniken wie Reinforcement Learning verbessern und hochgradig maßgeschneiderte Erfahrungen und Lösungen bieten.
- Sie sind auch bemerkenswert erfolgreich bei der Lösung komplizierter Probleme, da sie riesige Datenbanken analysieren, Trends entdecken und Urteile in Echtzeit fällen können.
Dies ermöglicht es Unternehmen, Prozesse zu rationalisieren und neue Automatisierungs- und intelligente Entscheidungsmöglichkeiten zu erkunden.
Trotz aller Vorteile gibt es immer noch einige Einschränkungen (Forbes, 2024):
- So sind beispielsweise Vertrauen und Transparenz eine große Herausforderung, da diese Systeme unabhängige Entscheidungen treffen und es den Benutzern möglicherweise schwer fällt, ihre Argumentation zu verstehen.
- Eine weitere Einschränkung ist die Zuverlässigkeit unter unbekannten Bedingungen, da selbst gut trainierte Systeme versagen können, wenn sie mit Situationen konfrontiert werden, die sie noch nie zuvor gesehen haben.
- Darüber hinaus gibt es ethische und sicherheitstechnische Bedenken, insbesondere in wichtigen Bereichen wie dem Gesundheitswesen und dem autonomen Fahren, wo schlechte Entscheidungen katastrophale Auswirkungen haben können. Dies unterstreicht die kritische, aber auch herausfordernde Notwendigkeit klarer rechtlicher und ethischer Regelungen, da agentische Systeme immer autonomer werden.
- Schließlich erfordern agentische Systeme umfangreiche Ressourcen für die Entwicklung und Bereitstellung, wie z. B. Rechenleistung, riesige Datensätze und spezielle Fähigkeiten, was sie für viele Unternehmen teuer macht.
Die Zukunft der KI-Agenten
Die Zukunft der KI-Agenten ist vielversprechend, da KI-Systeme proaktiver und in der Lage sind, Probleme selbst zu lösen. Anstatt nur auf Anweisungen zu warten, antizipieren sie Bedürfnisse und schlagen hilfreiche Lösungen vor. Mit einem besseren Verständnis von Emotionen werden KI-Agenten natürlichere und personalisiertere Interaktionen schaffen, und ihre Fähigkeit, mit Text, Sprache und Bildern umzugehen, wird die Kommunikation und den Kundenservice verbessern. Mit der Erweiterung ihrer Rollen wird es notwendig sein, sicherzustellen, dass ihre Handlungen fair und transparent sind, damit sie einen positiven Beitrag leisten und gleichzeitig das Vertrauen bewahren können.