Typische Muster bei der Entwicklung von KI Agenten

Auf verschiedenen Kanälen hört und liest man aktuell, 2025 wird das Jahr der KI Agenten. Dabei sind sich die meisten nicht mal einig darüber, was der Begriff eigentlich bedeutet.

Der echte KI Agent

Ein „echter“ KI Agent zeichnet sich dadurch aus, dass er jegliche Entscheidung allein mithilfe eines LLMs trifft. Das LLM entscheidet, welche Aktion als nächstes auszuführen ist oder welches Tool zu verwenden ist. Anschließend entscheidet der Agent auch selbst, inwiefern das Ergebnis ausreichend ist oder noch weiter verbessert werden muss. Evtl. übergibt er auch die Aufgabe an weitere Agenten, die autonom zusammenarbeiten. Hier gibt es neben dem Code für die Tools (Werkzeuge des Agenten) also keinen sonstigen Code, der den Ablauf steuert, keinen sogenannten Kontrollfluss.

Diese „Freiheit“ der KI führt aber auch dazu, dass solche Agenten nur schwer vorhersehbar sind, und auch nicht wirklich steuerbar. Man kann ihnen zwar über den Prompt die Aufgabe genau ausformulieren oder das verwendete LLM fine-tunen, aber man überlässt dem Agenten dennoch eine gewisse „Entscheidungsfreiheit“.

Dass der Einsatz eines solchen Systems auch nach hinten losgehen kann, hat man bei der Einführung von Apple Intelligence gesehen. Das System hat viele Fehler gemacht und halluziniert, weshalb Apple es kurz nach dem Start erstmal wieder stoppen musste.

Der zuverlässige KI Agent: Der KI Workflow

Was die meisten eigentlich meinen, wenn sie von „Agenten“ sprechen, ist ein System, welches eine bestimmte Aufgabe zuverlässig und automatisch lösen kann. Es ist also nichts anderes als eine klassische Automatisierung, allerdings unterstützt durch LLMs, wodurch diese Systeme an manchen Stellen schlauer sind als klassische starre Workflows.

Kleine KI Agenten sind weiterhin Teil eines solchen Workflows, aber in der Regel werden sie dazu gezwungen, Ausgaben in einem bestimmten Format zu tätigen oder nur kleine Teilaufgaben autonom zu erledigen. Das große Ganze wird nach wie vor von einem Algorithmus gesteuert, der je nach Problem beliebig komplex werden kann.

Um solche Agenten zu steuern, haben sich vier Ansätze etabliert:

  • Routing: Dabei wird ein LLM Prompt an den Anfang gestellt, der die Eingabe klassifiziert und an den passenden Teilworkflow weitergibt, der wiederum aus Prompts oder Logik bestehen kann.
  • Prompt Chaining: Dabei werden mehrere Prompts hintereinandergeschaltet, die ihre Antwort auf Basis der vorherigen Ausgabe und gegebenem Kontext erzeugen. Besonders ist dabei, dass zwischen den Prompts noch Entscheidungen von einem Algorithmus getroffen werden können. Bspw. kann die Kette abgebrochen werden, wenn eine bestimmte Bedingung nicht erfüllt ist.
  • Loops: Auch bekannt als „Evaluator / Optimizer“. Ein Prompt ist für die Analyse der Eingabe und Erzeugung einer Antwort zuständig. Der andere Prompt erhält diese Antwort als Eingabe und prüft / optimiert den Inhalt. Dies wird wieder zurück an den Evaluator gegeben, mit der Aufforderung, bestimmte Teile zu korrigieren oder zu verbessern, und so weiter. Schlussendlich entscheidet der Optimizer, wann das Ergebnis zufriedenstellend ist. Alternativ kann auch nach einer bestimmten Anzahl Runden abgebrochen werden.
  • Parallelisierung: Verschiedene Teilaufgaben des Hauptproblems, die unabhängig voneinander sind, können parallel ausgeführt werden. Es werden also parallel mehrere Prompts an dasselbe oder verschiedene LLMs geschickt. Die finale Antwort wird dann von einem Algorithmus, oder optional auch von einem weiteren Prompt, generiert.

Zusammenfassung

Es ist wichtig, zwischen echten „autonomen“ KI Agenten und Workflow-basierten Agenten zu unterscheiden. Aktuell ist die Technologie noch in einem Stadium, in dem Workflow-Agenten die besten und zuverlässigsten Ergebnisse liefern, und auch am einfachsten zu steuern und zu kontrollieren sind. In Zukunft kann sich das aber ändern, wenn die LLMs noch besser werden und das Context Window größer wird. Dann reicht es möglicherweise schon aus, einen einzigen Prompt zu schreiben, der das Problem zur Zufriedenheit lösen kann. Davon sind wir aber noch relativ weit entfernt.

Antworten