KI soll endlich die echte Welt anfassen
Forscher aus mehreren Disziplinen haben genug vom reinen Textgehirn. Ein neuer Review in Nature Machine Intelligence fragt: Was braucht eine KI, um nicht nur zu denken — sondern zu handeln?
Worum es geht
"Physical AI" ist der neue Kampfbegriff. Gemeint sind Systeme, die nicht nur Texte spucken oder Bilder malen, sondern sich in der physischen Welt bewegen, greifen, reagieren. Der Artikel bringt Frameworks aus Robotik, Neurowissenschaft und KI-Forschung zusammen — und sucht die gemeinsame Formel.
Wie das funktionieren soll
Die Autoren unterscheiden drei Stufen:
- Stufe 1:** Vorhersagen — das kann GPT schon. Muster erkennen, nächstes Wort berechnen.
- Stufe 2:** Simulieren — ein Weltmodell bauen, Szenarien durchspielen, bevor man handelt.
- Stufe 3:** Physisch handeln — ein Körper in der Welt, der Feedback bekommt und darauf reagiert. In Echtzeit.
Der Sprung von Stufe 2 zu Stufe 3 ist das Problem. Denn die echte Welt verzeiht keine Halluzinationen.
✅ Pro
- Endlich ein Rahmenwerk, das Robotik und LLMs zusammendenkt
- Interdisziplinär: Neurowissenschaft trifft Ingenieurwesen
- Stellt die richtige Frage: Was fehlt KI noch zum Handeln?
❌ Con
- Rein theoretisch — kein neues Modell, kein Benchmark, kein Produkt
- Akademisch formuliert, null konkreter Bauplan
- "Embodied Intelligence" ist seit 20 Jahren ein Versprechen ohne Einlösung
💡 Was das bedeutet
Die großen Labs — Google DeepMind, Tesla AI, Figure — bauen längst humanoide Roboter. Aber die Software-Seite hinkt hinterher. Dieser Review liefert kein Rezept, aber er zeigt, wo die Lücken sind. Wer Physical AI ernst meint, muss Körper und Gehirn gleichzeitig entwickeln. Nicht erst das eine, dann das andere.