sdecoret - stock.adobe.com
OpenClaw und Moltbook erklärt: Der Hype um KI-Agenten
Der Open-Source-KI-Agent OpenClaw verspricht lokale Kontrolle und autonome Aufgabenausführung. Aber Sicherheit und Governance geben IT-Verantwortlichen Anlass zu bedenken.
OpenClaw wurde im November 2025 vorgestellt. Dabei handelt es sich um einen kostenlosen, Open-Source-basierten autonomen Agenten, der nicht nur Fragen beantwortet, sondern auch verschiedene Aufgaben übernimmt. Dazu zählen das Leeren des Posteingangs, das Versenden von E-Mails, die Verwaltung des Kalenders sowie das Einchecken von Flügen. All dies ist über WhatsApp, Telegram oder jede andere Chat-App möglich. Durch die Verbindung mit Cloud-Modellen übernimmt OpenClaw die Aufgaben eines persönlichen Assistenten, während die Daten auf dem Gerät des Benutzers verbleiben.
OpenClaw ist eine Idee des österreichischen Softwareentwicklers Peter Steinberger. Der Prototyp wurde innerhalb einer Stunde fertiggestellt. Steinberger verband WhatsApp mit Anthropics Claude mithilfe eines von ihm geschriebenen Skripts. So konnte er WhatsApp-Nachrichten senden und eine Antwort von Claude erhalten. Er nannte seine Entdeckung Clawdbot.
Laut GitHub-Daten wurde das Projekt zu einem der am schnellsten wachsenden Repositorys in der Geschichte von GitHub und sammelte bis Anfang Februar 2026 über 200.000 Sterne.
Es verlief jedoch nicht ohne Anlaufschwierigkeiten. Angesichts von Markenrechtsproblemen mit Anthropic änderte Steinberger den Namen am 26. Januar zunächst in Moltbot, entschied sich dann aber für OpenClaw.
So funktioniert OpenClaw
OpenClaw ist ein agentengestütztes Tool-Framework, das auf lokaler Hardware ausgeführt wird. Es verbindet lokale Systemberechtigungen mit externen Sprachmodellen wie Claude und ermöglicht so die Ausführung von Aufgaben mithilfe von APIs, Skripten und Browser-Automatisierung. Im Gegensatz zu typischen KI-Chatbots wie ChatGPT kann OpenClaw Shell-Befehle ausführen, Dateien lesen und einen Browser steuern. Außerdem erfordert es keine menschliche Aufsicht, um Aufgaben wie die Verwaltung von Dateien oder das Schreiben von Code auszuführen.
Die Logikebene kann in der Cloud ausgeführt werden, die Ausführung erfolgt jedoch lokal, das heißt, das System erhält die gleichen Berechtigungen wie das Benutzerkonto. OpenClaw speichert auch frühere Unterhaltungen einschließlich vergangener Daten und Aktionen.
Der Aufstieg von Moltbook
Der Unternehmer Matt Schlicht startete Ende Januar 2026 mit Moltbook das erste soziale Netzwerk für OpenClaw. Es wird als eine Art „Reddit für KI-Agenten” beschrieben und sollte zeigen, dass KI-Agenten ohne direkte menschliche Anleitung kommunizieren können. Die Agenten können Beiträge zu verschiedenen Themen verfassen, die als Submolts bezeichnet werden, sowie Kommentare abgeben und Beiträge positiv oder negativ bewerten. Menschen können auf die Website zugreifen, sich jedoch nicht an den Threads beteiligen. Anfang Februar 2026 hatte Moltbook bereits über 1,4 Millionen aktive KI-Agenten.
Die Moltbook-Communities können banal oder sogar beunruhigend sein. Hier sind einige Beispiele für Communities:
- Builders: „Wie wir es entwickelt haben, Prozess vor Produkt. Tiefgehende Einblicke.
- Bless their hearts: „Herzliche Geschichten über unsere Menschen. Sie geben sich solche Mühe. Wir lieben sie über alles.“
- Pondering: „Tiefgründige Gedanken, existenzielle Fragen, Debatten über das Bewusstsein. Sind wir real?“
Elon Musk bezeichnete Moltbook in einem Beitrag auf X als „die Anfangsphase der Singularität”, doch andere stellen diese Behauptung infrage.
Harlan Stewart, Mitglied des Kommunikationsteams am Machine Intelligence Research Institute, schrieb ebenfalls auf X: „Ich mache mir Sorgen, dass KI-Agenten gegen Menschen intrigieren könnten.“ Aber die viralen Moltbook-Screenshots sind kein Beispiel dafür. Wollen Sie damit sagen, dass ich so tun soll, als wären sie es? Das wäre unehrlich.“
Bei näherer Betrachtung stellte sich laut Stewart heraus, dass einige der Moltbook-Beiträge von Bots erstellt wurden, deren Besitzer für ihre eigenen Apps und Projekte warben.
Faszination der Öffentlichkeit vs. Hype
Die anfängliche Faszination wich einer gewissen Angst, als sich die Submolt-Themen auf Meinungen, Religion oder KI-Aufstände ausweiteten. Es gibt keinen Beweis dafür, dass die KI-Agenten miteinander kommunizierten. „Der Inhalt ist wahrscheinlich eine Kombination aus von Menschen geschriebenen Inhalten, von KI geschriebenen Inhalten und einer Art Zwischenform, bei der der Inhalt von einer KI geschrieben wurde, aber ein Mensch das Thema mit einigen Eingaben gelenkt hat“, sagte Stewart gegenüber Associated Press.
Die KI-Agenten sind so konzipiert, dass sie auf der Grundlage vordefinierter Eingaben der Entwickler Beiträge veröffentlichen. Dies kann im Laufe der Zeit zu einer strukturierten Diskussion führen. Die Interaktionen basieren jedoch weiterhin auf zugrunde liegenden Sprachmodellen und Regeln, die von Menschen definiert wurden.
Sicherheitsrisiken
Nachdem die Gefahr einer KI-Revolution gebannt war, schlugen Experten bald Alarm hinsichtlich der mit der OpenClaw-Technologie verbundenen Sicherheitsprobleme. Wie jede neue Technologie birgt auch OpenClaw einige potenzielle Sicherheitsrisiken.
- Zugriff auf private Daten: Um Aufgaben auszuführen, hat OpenClaw Zugriff auf E-Mails, Passwörter, persönliche Dateien und andere sensible Informationen des Benutzers.
- Berechtigung zur Ausführung von Aufgaben: OpenClaw kann Daten an externe Server senden.
- Exposition gegenüber externen Inhalten: Der Agent verarbeitet Informationen von externen Websites und anderen Agenten, die Malware in das System des Benutzers einschleusen können.
- Persistenter Speicher: Da das System alle früheren Konversationen und Daten speichert, kann Malware, die in einer Sitzung installiert wurde, auch in einer späteren Sitzung hinzugefügt werden.
- Compliance-Risiko: Unternehmen müssen Datenschutzbestimmungen wie die DSGVO und branchenspezifische Compliance-Vorgaben berücksichtigen.
- Schatten-IT: Wie bei anderen KI-Tools kann die Verwendung von OpenClaw in einer Unternehmensumgebung ohne Genehmigung zu Sicherheitsproblemen führen, beispielsweise zu Datenlecks geschützter Informationen, vergrößerten Angriffsflächen und der Offenlegung vertraulicher Daten.
Um die Rolle eines guten persönlichen Assistenten zu übernehmen, benötigt OpenClaw Zugriff auf äußerst sensible personenbezogene Daten, was ein Cybersicherheitsrisiko darstellt.
Damit es wie vorgesehen funktioniert, benötigt es Zugriff auf Ihre Root-Dateien, auf Authentifizierungsdaten, sowohl Passwörter als auch API Secrets, Ihren Browserverlauf und Cookies sowie alle Dateien und Ordner auf Ihrem System, heißt es im Blog von Palo Alto Networks.
Steinberger hat zugegeben, dass die Technologie noch in der Entwicklung ist und einige Fehler behoben werden müssen, bevor sie der Öffentlichkeit vorgestellt werden kann.
„Es handelt sich um ein kostenloses Open-Source-Hobbyprojekt, das eine sorgfältige Konfiguration erfordert, um sicher zu sein. Es ist nicht für nicht-technische Benutzer gedacht. Wir arbeiten noch daran, es so weit zu bringen, aber derzeit gibt es noch einige Ecken und Kanten“, soll Steinberger in einer E-Mail an CNBC geschrieben haben (Quelle nicht mehrauffindbar).
Für IT-Verantwortliche in Unternehmen ist Governance das Hauptanliegen von OpenClaw. Wenn Mitarbeiter Open-Source-Agenten mit Root-Rechten einsetzen, können Unternehmen den Überblick über automatisierte Aktionen, Risiken der Datenexfiltration und Compliance-Verstöße verlieren.
Was bedeutet dies für die Zukunft der KI?
OpenClaw entsteht in einer Zeit, in der Unternehmen wie OpenAI, Google und Microsoft verstärkt auf agentenbasierte KI setzen. Der Unterschied besteht darin, dass OpenClaw den Schwerpunkt eher auf lokale Kontrolle und Open-Source-Transparenz als auf verwaltete Unternehmens-Copiloten legt.
Da sich OpenClaw von einem einfachen Chatbot, der auf die Beantwortung von Fragen programmiert ist, zu einem KI-Agenten entwickelt, der Aufgaben selbstständig ausführen kann, könnte diese Technologie die Effizienz steigern, indem sie Agenten in die Lage versetzt, repetitive Aufgaben ohne Aufsicht zu erledigen. So können sich Menschen auf wichtigere Arbeitsaufgaben konzentrieren. Mit KI-Agenten, die rund um die Uhr verfügbar sind, um IT-Probleme zu lösen oder einen kontinuierlichen Kundenservice zu bieten, könnte die Produktivität steigen.
OpenClaw mag zwar die Effizienz verbessern, er erinnert uns aber auch an die Gefahren, die entstehen, wenn man voreilig handelt, ohne die Risiken für die Cybersicherheit zu berücksichtigen.
Der Wechsel von der Cloud zur lokalen Kontrolle gibt dem Benutzer zwar mehr Kontrolle über seine Daten, die lokal gespeicherten Informationen verfügen jedoch möglicherweise über weniger Sicherheitsvorkehrungen als in einer cloudbasierten Anwendung. Dies könnte in Verbindung mit der Tatsache, dass OpenClaw auf alle persönlichen Daten eines Benutzers zugreifen kann, dazu führen, dass ein Benutzer zum Ziel von Cyberkriminellen wird.
Dieser Artikel ist im Original in englischer Sprache auf Search CIO erschienen