Gehirn-Scanner liest Sprache aus EEG-Signalen
Forscher haben ein KI-Modell gebaut, das aus Hirnströmen gesprochene Laute erkennt. Klingt nach Science-Fiction, ist aber erstmal nur ein Paper.
Was CIPHER ist
CIPHER steht für „Conformer-based Inference of Phonemes from High-density EEG Representations". Ein Dual-Pathway-Modell, das zwei Signaltypen aus EEG-Daten kombiniert: klassische ERP-Features und breitbandige DDA-Koeffizienten. Ziel: Phoneme erkennen — die kleinsten Sprachbausteine.
Die Datenbasis
- 24 Probanden** — aus dem offenen OpenNeuro-Datensatz ds006104
- High-Density EEG** — viele Elektroden auf der Kopfhaut
- Concurrent TMS** — gleichzeitige Hirnstimulation im Studiendesign
- Binäre Aufgaben** — ja/nein-Entscheidungen zu Artikulationsmerkmalen
Das Problem mit den Ergebnissen
Die binären Aufgaben erreichen laut den Autoren „near-ceiling performance" — also fast perfekte Trefferquoten. Klingt gut. Ist es aber nicht zwingend. Die Forscher selbst warnen: Die Ergebnisse sind „highly confound-vulnerable". Heißt übersetzt: Akustische Störsignale könnten das Modell täuschen. Es ist unklar, ob CIPHER wirklich Sprache aus dem Gehirn liest — oder einfach Nebengeräusche klassifiziert.
💡 Was das bedeutet
EEG vom Skalp hat ein mieses Signal-Rausch-Verhältnis. Jeder, der behauptet, damit zuverlässig Gedanken zu lesen, muss erstmal beweisen, dass er nicht nur Artefakte misst. CIPHER ist ein methodischer Schritt, kein Durchbruch. Für echte Brain-Computer-Interfaces braucht es noch deutlich mehr.
✅ Pro
- Open-Source-Datensatz, reproduzierbar
- Kombiniert zwei Signalpfade clever
- Autoren benennen Schwächen ehrlich
❌ Con
- Konfundierungsanfällig bei akustischen Signalen
- Nur binäre Aufgaben, keine freie Sprache
- EEG-Skalp bleibt ein extrem verrauschtes Signal