Chaosamran_Studio - stock.adobe.
Agentic RAG zündet die nächste KI-Evolutionsstufe
Generative KI und LLMs allein liefern keinen echten Mehrwert mehr. Unternehmen brauchen ROI-orientierte Ansätze wie agentenbasierte KI und Retrieval-Augmented Generation.
Generative KI, kurz: GenAI, hat mittlerweile einen festen Platz in den strategischen Planungen der meisten Führungskräfte eingenommen und die Pilotphase hinter sich gelassen. Die Zukunftstechnologie ist zum zentralen Bestandteil der Geschäftspraxis, Kundenbetreuung und Entscheidungsfindung auf allen Unternehmensebenen avanciert. Doch es genügt nicht, ein Large Language Model (LLM) inklusive der darauf aufbauenden GenAI-Assistenten in die eigene Technologieumgebung zu integrieren. Unternehmen müssen durch generative KI einen messbaren Return on Investment erreichen, sonst lohnt sich die Mühe nicht. Damit die für ein Unternehmen relevanten Use Cases mit künstlicher Intelligenz (KI) und LLMs umgesetzt werden können, braucht es das notwendige Fachwissen und Verständnis für den Kontext. Ein Ansatz dafür ist Retrievel-Augmented Generation (RAG). Er verbindet KI-Systeme mit unternehmensspezifischen Daten und ermöglicht auf diese Weise generativen KI-Assistenten, spezifischer, präziser und kontextbezogener zu antworten.
RAG macht den Unterschied
Die beeindruckenden Fähigkeiten, die Large Language Models generativen KI-Assistenten verliehen haben, kann niemand leugnen. Jedoch haben alle LLMs eines gemeinsam: sie sind durch ihre in der Regel statischen Trainingsdaten auf das trainierte limitiert und bleiben somit gerade bei Fragen zu tagesaktuellen Ereignissen, firmeninternen Wissen oder kontextbezogenen Fragestellungen hinter ihren Möglichkeiten zurück. Das führt in allen dynamischen Branchen unweigerlich zu veralteten oder qualitativ niederwertigen Ergebnissen.
Retrievel-Augmented Generation setzt genau an dieser Stelle an und vereint LLMs mit zusätzlichen Datenquellen. Auf diese Weise erhöht RAG die Aussagefähigkeit generativer KI-Assistenten, ohne dass das zugrunde liegende Large Language Model neu trainiert werden muss. Für Unternehmen hat das den Vorteil, dass sie ihre KI-Initiativen zu jeder Zeit flexibel anpassen und je nach Bedarf ausweiten können. Da durch den Einsatz von RAG auch externe Datenquellen an die KI angebunden werden können, eröffnet die Technologie auch neue Anwendungsfälle: durch den ständigen Zugriff auf die neuesten Informationen können Chatbots beispielsweise spezifische Fragen zu brandaktuellen Situationen konsistent beantworten und als Basis dafür den Wissensschatz des Unternehmens konsultieren und in Verbindung mit externen Informationen bringen. Die Antworten, die mit Hilfe von RAG von generativen KI-Assistenten ausgegeben werden, sind somit nicht nur intelligent, sondern basieren auf aktuellen, überprüfbaren Daten. Die Technologie verbessert damit nachhaltig die Leistung der eingesetzten Large Language Models.
Agentic RAG als nächster Evolutionsschritt
Eine aktuell noch relativ neue Entwicklung ist Agentic AI. Während traditionelle KI-Systeme noch stark auf menschlichen Input und gute Prompts angewiesen sind, sollen KI-Agenten der nächste Schritt in der Evolution künstlicher Intelligenz werden: in Zukunft werden sie, so das Ziel, eigenständige Entscheidungen treffen und autonom Maßnahmen ergreifen, um die ihnen vorgegebenen Ziele zu erreichen. Anwender geben ihnen in diesem Fall nicht nur eine Aufgabe, die sie abarbeiten, sondern die Freiheit, echte Ergebnisse zu generieren – natürlich immer im Rahmen vorgegebener Fähigkeiten und Regeln. Einfacher gesagt: ein RAG-basierter generativer KI-Agent wird bald nicht nur Aufgaben ausführen, sondern die Vorgehensweise planen, eigenständig Entscheidungen treffen und weitestgehend autonom oder sogar in Form eines Teams digitaler Entitäten (Multi-Agent-System) handeln. Ein solches System kann dann beispielsweise Lieferketten managen, Zeitpläne verhandeln, in natürlicher Sprache mit Kunden kommunizieren und Workloads entsprechend der Zielvorgaben ausführen. So weit ist die Technologie zwar noch nicht, aber die Richtung, in die sich Agentic AI entwickeln wird, ist klar. Der Mensch ist dann nicht mehr Teil des operativen Prozesses, sondern mutiert zum Überwacher oder Vorarbeiter. Aus dem Human in the Loop-Ansatz, bei dem der Mensch in der Regel über alle einzelnen Schritte informiert wird und jederzeit eingreifen kann, wird ein Human out oft he Loop-Ansatz.
![]()
„Retrievel-Augmented vereint LLMs mit zusätzlichen Datenquellen. Auf diese Weise erhöht RAG die Aussagefähigkeit generativer KI-Assistenten, ohne dass das zugrunde liegende Large Language Model neu trainiert werden muss.“
Christian Scharrer, Dell Technologies
Die Technologie verlässt somit klar die reaktive Ebene. Stattdessen agiert ein solches System proaktiv und KI-Agenten übernehmen spezifische Aufgaben der menschlichen Mitarbeitenden. Diese Entwicklung zielt darauf ab, die organisatorische Effizienz von Unternehmen zu steigern, ermöglicht schließlich Entscheidungen in Echtzeit und hebt damit die Effizienz auf ein neues Level. Dieser massive Paradigmenwechsel wirft logischerweise ethische Fragen und kulturelle Veränderungen auf, die von der Führungsebene im Unternehmen adressiert werden müssen, denn Agentic AI wird viele Berufsbilder, Aufgabenbereiche und den Arbeitsalltag vieler Menschen verändern. KI als solches ist eine transformative und disruptive Kraft, deren Potenzial und Kapazitäten quasi täglich steigen. Gleichzeitig bleibt die Frage nach dem Vertrauen, denn Halluzinationen sind auch mit RAG nicht komplett auszuschließen. Daher ist es wichtig, dass der Mensch immer die Möglichkeit behält, Ergebnisse zu prüfen und in Prozesse einzuschreiten sowie bei geschäftskritischen Entscheidungen das letzte Wort zu behalten.
Über den Autor:
Christian Scharrer ist Enterprise Solution Architect bei Dell Technologies. Mit über 26 Jahren IT-Erfahrung arbeitet er mit ausgewählten Kunden auf strategischer und architektonischer Ebene, um Transformationen voranzutreiben. Er entwickelt Lösungen und Referenzarchitekturen, die konkrete Anforderungen adressieren und geschäftliche Ziele unterstützen.
Seine Schwerpunkte liegen in Künstlicher Intelligenz, Datacenter‑Lösungen, Cloud‑Native‑Technologien sowie Cloud‑ und Edge‑Computing.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.
