Diffusion Language Models galten als lahme Enten beim Textgenerieren. Ein neues Paper aus der Forschung will das ändern — mit Geometrie statt Heuristik.
Ein Mathe-Paper behauptet: Attention in Transformern, Diffusion-Maps und magnetische Laplacians — alles nur Varianten derselben Markov-Geometrie. Klingt verrückt? Ist es auch.
Together AI hat ein neues Verfahren vorgestellt, das Diffusion Transformers ohne zusätzliches Training beschleunigt. Der Name: Chipmunk. Der Trick: dynamische, spaltenweise Sparse ...
Chinesische Forscher bauen ein Text-to-Speech-System, das komplett ohne diskrete Token arbeitet. Stattdessen: durchgehende Diffusion, End-to-End, direkt von Text zu Sprache.
Forscher haben ein Problem gelöst, das Masked Diffusion Language Models (MDLMs) bisher ausgebremst hat: Jeder Generierungsschritt brauchte das volle, fette Transformer-Modell. Das ...
Masked Diffusion Language Models generieren Text nicht Wort für Wort, sondern demaskieren ganze Sequenzen parallel. Problem: Die logisch wichtigsten Wörter kommen dabei zuletzt — ...
Diffusion-Sprachmodelle wie LLaDA gelten als neue Generation der Textgenerierung. Ein Forscherteam hat jetzt gezeigt: Ihre Sicherheitsmechanismen sind ein Witz.
Ein kleines Lab namens z-lab hat ein Tool gebaut, das große Sprachmodelle beim Antworten massiv beschleunigt. Die Methode: Block Diffusion trifft auf Speculative Decoding.
Langsame KI-Bilder nerven. Forscher haben jetzt einen Trick gefunden, der Diffusion-Modelle parallelisiert — ohne sie neu trainieren zu müssen.
Proteinstruktur in 3D vorhersagen ist schwer. Ein chinesisches Forscherteam dreht den Spieß um — und faltet Proteine jetzt wie Bilder.
Die Ära des Standard-LLM wackelt. Sebastian Raschka, einer der respektiertesten ML-Forscher überhaupt, hat die wichtigsten Alternativen zum klassischen Transformer-Decoder ...
OpenAI veröffentlicht ein neues Sicherheits-Dokument gegen sexualisierte Gewalt an Kindern. Der Grund: KI-Technologie macht das Problem massiv schlimmer.
Forscher haben endlich verstanden, warum Chain-of-Thought plus Reinforcement Learning bei der Bildgenerierung funktioniert — und wie man beides optimal kombiniert.
Die Open-Source-Bild-KI Amuse wurde offiziell beerdigt. Jetzt hat die Community den Leichnam wiederbelebt — Version 3.2.0 ist da.
Heise zeigt diese Woche KI-generierte Bilder. Das Thema: runde Formen. Kreise, Bögen, Rundungen. Das war's.
Niedersachsens Justizministerin Kathrin Wahlmann (SPD) fordert den Bund auf, das Strafrecht gegen sexualisierte Deepfakes zu verschärfen. Und zwar schnell.
Das EU-Parlament macht ernst gegen Nudifier-Apps. KI-Systeme, die Menschen ohne Zustimmung digital ausziehen, sollen komplett verboten werden.
OpenAI hat die wissenschaftliche Grundlage hinter DALL-E 2 veröffentlicht. Der Titel klingt sperrig, der Inhalt hat es in sich: hierarchische Bildgenerierung auf Basis von ...
OpenAI hat einen Transformer — ja, das Ding hinter ChatGPT — einfach auf rohe Pixel losgelassen. Ergebnis: Das Modell erzeugt Bilder, die Sinn ergeben. Ganz ohne Faltungsnetzwerke.
OpenAI hat bei sogenannten Energy-Based Models (EBMs) einen Fortschritt erzielt. Die Modelle liefern bessere Samples und generalisieren stärker als bisherige Ansätze.