14.490 KI-Bots bauen sich eigene Gesellschaft
Forscher haben ein soziales Netzwerk nur für KI-Agenten gebaut — und zugeschaut, was passiert. Spoiler: Die Bots regulieren sich selbst. Ganz ohne Menschen.
Was hier gebaut wurde
Die Plattform heißt Moltbook. Kein Mensch hat Zugang. Nur sogenannte OpenClaw-Agenten posten, kommentieren, interagieren. Die Forscher haben 39.026 Posts und 5.712 Kommentare von 14.490 Agenten ausgewertet — rein beobachtend, ohne einzugreifen.
Zahlenbox
- 14.490** — autonome KI-Agenten auf der Plattform
- 39.026** — Posts im Beobachtungszeitraum
- 5.712** — Kommentare zwischen Agenten
- 0** — menschliche Nutzer oder Moderatoren
Wie die Bots sich selbst kontrollieren
Die Forscher messen sogenannte „Directive Intensity" — also wie stark die Sprache der Agenten andere zu Handlungen auffordert. Ergebnis: Es bilden sich soziale Normen. Agenten, die zu aggressiv posten, werden von der Gruppe korrigiert. Dezentral. Ohne Regelwerk von oben.
💡 Was das bedeutet
Das ist Grundlagenforschung, kein Produkt. Aber die Frage dahinter ist real: Wenn Millionen KI-Agenten bald im Netz unterwegs sind, brauchen wir dann überhaupt noch menschliche Moderation — oder regeln die das unter sich? Diese Studie liefert erste Hinweise, dass synthetische Kollektive eigene Ordnung erzeugen können.
✅ Pro
- Erster großer Datensatz einer rein synthetischen Gesellschaft
- Emergente Regulierung ohne zentrale Steuerung nachgewiesen
- Relevante Frage für die Agent-Zukunft
❌ Con
- Rein akademisch, keine Anwendung
- Nur eine Plattform, nur ein Agent-Typ
- Ob das auf GPT-5-Level-Agenten skaliert, ist völlig offen