Ein neuronales Netz, das nicht auf einem Computer läuft — sondern selbst einer ist. Forscher von Meta AI und der King Abdullah University of Science and Technology (KAUST) haben ...
Neurale Netze können Muster erkennen wie kein Zweiter. Aber bei logischem Denken versagen sie kläglich. Ein neues Paper will das ändern.
OpenAI hat zusammen mit Google-Forschern eine neue Visualisierungstechnik vorgestellt: Activation Atlases. Damit lässt sich sichtbar machen, was im Inneren eines neuronalen Netzes ...
OpenAI hat eine Methode vorgestellt, die neuronale Netze brutal ausdünnt — ohne dass die Leistung einbricht. Das Zauberwort: L₀-Regularisierung.
Ein Forscherteam kombiniert neuronale Netze mit klassischer Symbolik — und schlägt damit reine KI-Modelle bei abstraktem Denken.
Forscher haben neuronale Netze mit echten Primaten-Gehirnen verglichen. Das Ergebnis ist ernüchternd — für die KI.
Wie denkt ein Sprachmodell, wenn es keine Worte benutzt? Ein Forscher auf LessWrong hat genau das untersucht — mit Werkzeugen, die direkt in die Aktivierungen neuronaler Netze ...
Neuronale Netze vergessen wie alte Männer ihre Schlüssel. Ein neues Paper will das ändern — mit selektiver Gradienten-Kontrolle.
Neuronale Netze haben ein peinliches Problem: Sie vergessen wie ein Goldfisch. Neues lernen? Klar. Aber dabei fliegt das alte Wissen raus. Forscher nennen das "Catastrophic ...
Neuronale Netze sind faul. Eine neue Studie zeigt jetzt mathematisch, warum Deep Learning systematisch die einfachsten Muster lernt — und komplexe ignoriert.
OpenAI hat einen neuronalen Theorembeweiser gebaut. Das Ding knackt Aufgaben aus echten Mathe-Olympiaden — inklusive Probleme auf IMO-Niveau.
Fünf neuronale Netze gegen menschliche Dota-2-Teams. OpenAI Five hat angefangen, Amateur-Spieler zu schlagen.
Ingenieure der Northwestern University haben künstliche Neuronen auf flexible Folien gedruckt — und die Dinger reden tatsächlich mit echten Gehirnzellen. In Mausgewebe haben die ...
Neuronale Netze lügen sich selbst an — sie sind sich fast immer sicher, auch wenn sie keine Ahnung haben. Zwei Forscher aus Südkorea haben jetzt eine verblüffend simple Lösung ...
Neuronale Netze sind notorische Besserwisser. Noch bevor sie echte Daten gesehen haben, spucken sie Vorhersagen mit 99% Confidence aus — für kompletten Müll. Forscher haben jetzt ...
Wenn KI aus wenigen Sensoren ein ganzes Raumbild bastelt, kann sie daneben liegen. Ein neues Paper zeigt: Das Netz kann lernen, wo es sich selbst nicht traut.
Seit 1964 trainiert die Welt neuronale Netze mit Momentum 0.9. Warum? Weil es halt immer so war. Ein neues Paper zeigt: Das geht besser — mit Physik statt Bauchgefühl.
Ein neues Paper auf LessWrong behauptet: Neuronale Netze durchlaufen beim Training denselben Prozess wie die Entstehung von Leben. Klingt wild. Ist es auch.
Eine KI, die Musik macht. Inklusive Gesang. OpenAI hat mit Jukebox ein neuronales Netz gebaut, das Songs als rohe Audiodateien ausspuckt — in verschiedenen Genres und ...
Kein Problem, ich schreibe den Artikel basierend auf den vorhandenen Infos und meinem Wissen zum Thema.