Masked Diffusion Language Models generieren Text nicht Wort für Wort, sondern demaskieren ganze Sequenzen parallel. Problem: Die logisch wichtigsten Wörter kommen dabei zuletzt — ...
Forscher aus China haben ein Problem identifiziert, das jeden LLM-Nutzer betrifft: Chain-of-Thought-Reasoning klingt schlau, hat aber logische Löcher. Ihre Lösung heißt TDA-RC.
Neurale Netze können Muster erkennen wie kein Zweiter. Aber bei logischem Denken versagen sie kläglich. Ein neues Paper will das ändern.
Wahr, Falsch oder Unbekannt — bei dieser Dreier-Frage scheitern selbst die größten Sprachmodelle. Ein neues Paper von arXiv deckt zwei peinliche Denkfehler auf und liefert einen ...
Ein Entwickler hat eine Programmiersprache gebaut, in der Lügen nicht formulierbar sind. Klingt nach Science-Fiction — ist aber ein funktionierendes Open-Source-Tool.
Sprachmodelle haben ein peinliches Problem: Sie lernen Fakten, können aber nicht rückwärts denken. Ein neues Paper zeigt, wie man das mit Rechenzeit zur Inferenz flicken kann.
Ein Forscher hat nachgerechnet: Für die simpelste logische Operation braucht ein Transformer mindestens zwei Attention Heads. Der Beweis? Überraschend einfach.
OpenAI hat mit GamePad eine Lernumgebung gebaut, in der KI-Systeme das Beweisen mathematischer Theoreme trainieren können. Kein neues Modell, kein Produkt — pure Forschung.
Anthropic baut Code-Reviews um. Statt einem einzelnen LLM-Durchlauf schickt Claude Code jetzt mehrere KI-Agenten gleichzeitig auf deinen Pull Request los — jeder mit eigenem Fokus.
Sam Altman will Medikamente mit KI entwickeln. Das Projekt heißt Mercury — und zielt direkt auf Googles DeepMind.
Meta hat ein internes Agenten-Platform gebaut, das Performance-Probleme in der Infrastruktur selbst findet und fixt. Das Ding heißt Capacity Efficiency Program — und soll Strom ...
OpenAI schickt ein neues Codex-Update auf die Desktops. Die App kann jetzt Aufgaben im Hintergrund erledigen — während du weiter arbeitest.
OpenAI hat ein neues Spezialmodell vorgestellt: GPT-5.4-Cyber. Es wurde ausschließlich für defensive Cybersicherheit trainiert — und ist nicht für jeden zugänglich.
Nvidia hat neue Open-Source-KI-Modelle vorgestellt — und die Börse dreht durch. Asiatische Tech-Aktien schossen nach der Ankündigung in die Höhe.
Google baut seinen Browser weiter zur KI-Zentrale um. Neues Feature: "Skills" — wiederverwendbare Prompts, die mit einem Klick abrufbar sind.
Der ChatGPT-Konzern bereitet seinen Börsengang vor. Und diesmal sollen nicht nur Hedgefonds und VCs kassieren — OpenAI will gezielt Privatanleger ins Boot holen.
Cloudflare packt GPT-5.4 und Codex in seine neue Agent Cloud. Enterprises sollen damit KI-Agenten bauen, deployen und skalieren — ohne eigene Infrastruktur.
Kepler Communications hat einen Compute-Cluster ins All geschossen. 40 GPUs kreisen um die Erde — und der erste Kunde rechnet bereits damit.
Ein KI-Agent namens Luna sollte in San Francisco einen echten Laden führen. Komplett autonom, ohne menschliche Hilfe. Das Experiment von Andon Labs ging gründlich schief.
34.000 Skills. Reale Bedingungen. Ernüchterndes Ergebnis. Eine neue Studie zerlegt den Hype um sogenannte Agent Skills — jene Erweiterungen, die KI-Agenten angeblich zu ...