Dieser Mann baut sich ein zweites Gehirn
Ein LessWrong-Nutzer hat genug davon, KI wie einen Praktikanten zu behandeln. Seine These: Wir nutzen LLMs komplett falsch — als externes Werkzeug statt als Erweiterung unseres eigenen Denkens. Also hat er sich ein System gebaut, das er "Exobrain" nennt.
Die Idee dahinter
Der Autor nennt es "Cyborgism". Nicht im Sci-Fi-Sinne mit Implantaten im Schädel. Sondern als Denkmodell: Statt die KI zu fragen "mach das für mich", wird sie Teil des eigenen kognitiven Prozesses. Denken mit der Maschine, nicht neben ihr.
Der Unterschied
- Standard-Nutzung:** Du gibst der KI eine Aufgabe, sie liefert ein Ergebnis. Du bist der Chef, sie ist das Tool.
- Cyborgism:** Du verschmilzt deinen Denkprozess mit der KI. Sie ergänzt dein Gedächtnis, deine Analyse, dein Reasoning in Echtzeit.
✅ Pro
- Radikal anderer Ansatz als "ChatGPT als Google-Ersatz"
- Zwingt zum Nachdenken über die Mensch-Maschine-Schnittstelle
- Exobrain als persönliches System statt One-Size-Fits-All
❌ Con
- Bisher nur Theorie-Post, das eigentliche System kommt erst in Teil 2
- Null Daten, null Benchmarks, null Vergleiche
- "Cyborgism" klingt nach 2014er Transhumanismus-Blog
- LessWrong-Bubble — erreicht exakt die Leute, die das eh schon glauben
Was das bedeutet
Die Frage "Tool oder Erweiterung?" ist berechtigt. Wer täglich mit Claude Code, Cursor oder Copilot arbeitet, kennt den Moment, wo die Grenze zwischen eigenem Denken und KI-Output verschwimmt. Aber ein philosophischer Essay ohne konkretes System ist erstmal nur — ein Essay.