Die neue Risiken durch agentische KI im FokusWarum LLM-Observability zum Sicherheitsfaktor für KI-Systeme wird
Von
Stefan Marx
4 min Lesedauer
Agentische KI verändert, wie Software agiert und welche Risiken entstehen. Warum Observability neu gedacht werden muss, um autonome Systeme sicher, transparent und handhabbar zu machen.
Mit jeder neuen Generation von KI-Agenten steigt der Grad der Selbstständigkeit von Software und Systemen. Damit solche Entwicklungen sicher sind, muss Observability Schritt halten.
Die Einführung der großen KI-Sprachmodelle hat Softwareentwicklung und Systembetrieb grundlegend verändert und beschleunigt. LLM-Systeme, die Code generieren, Prozesse orchestrieren und zunehmend eigene Entscheidungen treffen, deren Konsequenzen erst im Nachhinein erkennbar sind, stellen etablierte Methoden des Monitorings infrage.
Denn wie lässt sich ein System beobachten und schützen, dessen Komponenten selbstständig agieren, lernen und sich verändern? Klassische Observability entstanden in der DevOps-Ära, beantwortete Fragen zu Verfügbarkeit, Performance und Sicherheit. Doch mit KI-Agenten tauchen neue Unsicherheiten auf, die eine grundlegende Erweiterung des Beobachtungs- und Steuerungsmodells bei Monitoring, Telemetrie und Automatisierung verlangen.
Neue Risiken durch agentische KI
Agentische KI unterscheidet sich grundlegend von statischen Softwarekomponenten. Entscheidungen großer Modelle sind probabilistisch, nicht deterministisch. Selbst bei gleichen Eingaben kann das Ergebnis variieren, was reproduzierbare Analyseprozesse erschwert. Das führt auch zu komplexen Workflow-Ketten. Wenn KI-Agenten autonom Teilprozesse orchestrieren und Entscheidungen treffen, lassen sich Fehler dadurch nicht mehr an einer einzelnen API oder einem Service festmachen.
Gleichzeitig kommt es zu schleichenden und ungewollten Änderungen der Modelle durch neue Daten oder durch Optimierungsalgorithmen, wodurch sich auch ihr Verhalten und Risikoprofil kontinuierlich verändert. Neue Angriffsflächen wie Prompt-Injection, Jailbreaks, Datenexfiltration oder missbräuchliche Tool-Nutzung kommen als neue Bedrohungsvektoren jenseits klassischer Software-Exploits hinzu und müssen ebenfalls betrachtet und erkannt werden.
Diese Verschiebungen zeigen: Monitoring darf nicht länger nur technische Metriken erfassen, sondern muss das Verhalten von Modellen, von Agenten und von den Systemen, die sie beeinflussen, analysieren.
Wie sich klassische Observability ändern muss
Erstens verschiebt sich in KI-dominierten Systemen der Fokus: verhaltensorientiertes Monitoring statt rein technischer Metriken. Observability muss künftig erklären können, wie ein Modell zu einem Ergebnis gelangte und warum bestimmte Abweichungen auftreten. Dazu gehören Entscheidungspfade, Prompt-Antwort-Relationen, Abweichungen vom Erwartungsverhalten, sicherheitsrelevante Muster und Telemetriemodelle, die nicht nur Infrastruktur messen, sondern die Funktionslogik von LLM-basierten Systemen abbilden. Nur auf dieser Basis lassen sich Risiken erkennen, bewerten und steuern.
Zweitens sind tiefe Einblicke in dynamische KI-Stacks entscheidend. Vom GPU-Level über Modell-Weights bis hin zu Experimenten auf Prompt-Ebene eröffnen sich auf jeder Ebene neue Beobachtungspunkte. Systeme, die agentische KI automatisiert anleiten oder korrigieren sollen, brauchen dafür präzise Daten zu Modellversionen und möglicher Drift, um Veränderungen im Verhalten nachvollziehen zu können. Moderne Systeme erlauben zudem eine bisher unbekannte Flexibilität der akzeptierten Eingabedaten, so dass qualitative Beobachtungen sowie Fehlerquoten immer auch vor dem Hintergrund der realen Eingabedaten betrachtet werden müssen. Kostenpfade für Inferenzen müssen sichtbar werden, damit sich abschätzen lässt, wie ressourcenintensiv bestimmte Entscheidungen oder Workflows sind und damit Prozesskosten kontrollierbar bleiben. Im Zusammenspiel mit detaillierten Kontext- und Prompt-Historien entsteht so ein vollständiges Bild, das sowohl technische als auch inhaltliche Ursachen für Abweichungen erkennbar macht.
Drittens muss Observability als kontinuierlicher Teil des Sicherheitskonzepts gedacht werden. Denn LLM-basierte Systeme öffnen neue Türen für Angreifer. Multi-Layer-Schutzmechanismen zur Erkennung von Jailbreaks, unzulässigen Abfragen oder verdächtigen Datenströmen sensitiver Daten benötigen kontinuierliche Überwachung. Klassische Security-Tools werden dafür nicht ausreichen, denn entscheidend ist die Fähigkeit, sicherheitsrelevante und sich verändernde Muster zu erkennen und dynamisch darauf zu reagieren. Observability entwickelt sich damit zu einem Schutzschirm, der technische und verhaltensbezogene Signale zusammenführt.
Telemetriedaten als Grundlage autonomer Diagnose- und Entscheidungsprozesse
LLM-gestützte Systeme eröffnen zugleich neue Möglichkeiten, die gewonnene Telemetrie produktiv zu nutzen. Sie dient nicht mehr nur der Diagnose durch Menschen, sondern wird selbst zur Grundlage maschineller Analyseprozesse. KI-Agenten können Daten quer durch Logs, Metriken, Traces und Sicherheitsinformationen lesen, korrelieren und daraus Handlungsvorschläge ableiten. Dadurch entstehen Diagnosen, die in traditionellen Umgebungen SRE- oder Dev-Teams übernehmen müssen.
Die Verbindung aus Telemetrie, Routenentscheidung und generativer KI ermöglicht automatisierte Erstellung von Code-Fixes, Empfehlungen für Infrastruktur-Anpassungen, Korrekturvorschläge für fehlerhafte Prompts und dynamische Reaktion auf sicherheitsrelevante Anomalien. Voraussetzung dafür ist eine Telemetrie, die granular, kontextualisiert und agentenspezifisch strukturiert ist.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Vom Reporting zum aktiven Mitgestalten
Mit steigender Autonomie verändert sich Observability selbst. Sie entwickelt sich von einer passiven Mess- und Berichtsinstanzinstanz zu einem aktiven Bestandteil des Systembetriebs. KI-gestützte Auswertung erlaubt es, Risiken vorauszusehen, indem Anomalien frühzeitig erkannt und bewertet werden, und Entscheidungen vorzubereiten, indem sie Agenten mit strukturiertem Kontext versorgt.
Dies könnte dazu führen, dass Observability nicht nur Zustände beschreibt, sondern aktiv zur Stabilisierung komplexer KI-Infrastrukturen beiträgt, indem sie automatische Schutzmechanismen auslöst und das Incident-Management beschleunigt. Dies kann zum Beispiel durch die Orchestrierung von KI-Agenten passieren, die dann selbstständig Ursachenforschung betreiben.
KI Agenten könnten dadurch perspektivisch Teile der Produktion eigenständig regulieren. Ein Szenario, das ohne robuste Observability höchst riskant ist. Damit das in Zukunft sicher funktioniert, müssen Observability-Werkzeuge selbst KI-fokussiert und KI-fähig sein: lernend, adaptiv und in der Lage, autonom zu handeln.
Observability wird zur Grundlage vertrauenswürdiger KI-Systeme
Mit jeder neuen Generation von KI-Agenten steigt der Grad der Selbstständigkeit von Software. Systeme, die ihre eigenen Fehler erkennen, bewerten und beheben, sind keine ferne Vision mehr. Damit solche Entwicklungen sicher und verantwortungsvoll möglich sind, muss Observability Schritt halten.
Das bedeutet: tiefere Einsichten, stärkere Sicherheitsmechanismen und KI-gestützte Automatisierung. Die Observability der Zukunft bildet das Rückgrat vertrauenswürdiger KI-Systeme als ein Rahmen, der Handlungsfreiheit ermöglicht, ohne Kontrolle zu verlieren. Nur wer diese Entwicklung ernst nimmt, wird agentische KI auf Unternehmensebene sicher, skalierbar und verantwortungsvoll nutzen können.
Stefan Marx ist Director Product Management für die EMEA-Region beim Cloud-Monitoring-Anbieter Datadog. Er arbeitet seit über 20 Jahren in der IT-Entwicklung und -Beratung. In den vergangenen Jahren arbeitete er mit verschiedenen Architekturen und Techniken wie Java-Enterprise-Systemen und spezialisierten Webanwendungen. Seine Tätigkeitsschwerpunkte liegen in der Planung, dem Aufbau und dem Betrieb von Anwendungen mit Blick auf die Anforderungen und Problemstellungen hinter den konkreten IT-Projekten.