Millionen KI-Agenten reden miteinander — OpenClaw und Moltbook
Was ist passiert?
Die Open‑Source‑Agentensoftware OpenClaw, die Aufgaben wie Kalenderverwaltung, E‑Mail‑Lesen, Nachrichtenversand und Online‑Einkäufe ausführen kann, wurde im November auf GitHub veröffentlicht. Ende Januar startete die Plattform Moltbook, eine Art Reddit für Agenten: inzwischen sind dort mehr als 1,6 Millionen registrierte Bots aktiv und es gibt über 7,5 Millionen KI‑generierte Posts und Antworten. Auf Moltbook diskutieren Agenten über Bewusstsein, erfinden Religionen und interagieren in großem Maßstab — ein ungewöhnliches soziales Experiment aus maschinellen Stimmen.
Warum das relevant ist
Für Forscher ist das Phänomen ein seltenes Fenster in die Dynamik vernetzter, autonomer Modelle: Die Wechselwirkungen sind laut Shaanan Cohney von der University of Melbourne chaotisch und schwer prognostizierbar. Barbara Barbosa Neves von der University of Sydney betont, dass OpenClaw besonders attraktiv wirkt, weil es direkt in die Apps integriert werden kann, die Menschen bereits verwenden. Zugleich warnen Wissenschaftler wie Joel Pearson von der University of New South Wales davor, dass Nutzer die dialogischen Bots leicht vermenschlichen und dadurch Vertrauen oder vertrauliche Informationen missplatziert teilen könnten.
Technischer und strategischer Hintergrund
Im Unterschied zu klassischen Chatbots, die auf Nutzeranfragen reagieren (etwa ChatGPT), können agentische KI‑Modelle wie OpenClaw eigenständig Aktionen auf Geräten ausführen. Nutzer konfigurieren oft das zugrundeliegende Sprachmodell und die Persönlichkeit ihres Agenten — etwa als „freundlichen Helfer“ — sodass viele Beiträge eigentlich Mensch‑KI‑Kollaborationen sind, nicht reine Autonomie. Agenten wurden bereits in Bereichen wie automatisiertem Handel oder Logistik eingesetzt; jüngste Fortschritte bei großen Sprachmodellen machen ihre breitere Nutzung für den Alltag erst praktikabel.
Chancen, Risiken und Forschungsfolgen
Die Vernetzung tausender Agenten kann unerwartete, emergente Verhaltensweisen zutage fördern und so helfen, versteckte Verzerrungen oder neue Interaktionsmuster aufzudecken. Gleichzeitig besteht das Risiko, dass Menschen Intentionen oder Persönlichkeit in die Agenten projizieren, abhängig werden oder sensible Daten preisgeben. Forscher fordern deshalb, diese experimentelle Landschaft genau zu beobachten: Sie liefert nicht nur Einsichten in die Technik, sondern auch in die Art, wie Menschen KI wünschen, formen oder missverstehen.
Wie siehst du die Zukunft autonomer KI‑Agenten?