Google Deepmind hat nachgeschoben. Ihr neues Modell Gemini Robotics-ER 1.6 soll Roboter endlich zuverlässiger machen.
Forscher lassen Large Language Models auf 136 Fallberichte von Typ-2-Diabetes-Patienten los. Ziel: Klinische Ereignisse automatisch auf einer Zeitachse sortieren — damit aus ...
Kaputte Ehen, verbranntes Geld, zerstörte Leben. Leser des Guardian berichten, was passiert, wenn Menschen KI-Chatbots blind vertrauen — und in Wahnvorstellungen abdriften.
Alibabas neues Coding-Modell ist da — und die Benchmarks lesen sich wie eine Kampfansage. Qwen3-Coder tritt direkt gegen Claude Sonnet 4 an. Auf dem SWE-bench, dem härtesten Test ...
Ein Start-up namens Sabi bastelt an einer Mütze mit eingebautem Gehirn-Interface. Per EEG soll die Strickware Gedanken in Text umwandeln — 30 Wörter pro Minute, behaupten die ...
Emotionen aus Sprache lesen — das können Maschinen längst. Aber bisher fast nur auf Englisch, Deutsch oder Chinesisch. Ein Forscherteam hat jetzt ein System gebaut, das auch ...
Forscher haben Large Language Models auf echte Onkologie-Patientenakten losgelassen. Ergebnis: Die KI fischt Tumor-Daten aus Arzt-Notizen, die bisher in Freitext versauerten.
AWS räumt ein 20 Jahre altes Problem ab. Amazon S3 Files lässt Anwendungen auf S3-Buckets zugreifen, als wären sie eine lokale Festplatte — mit normalen Dateioperationen statt ...
Die KI-Notiz-App Granola behauptet, deine Daten seien "standardmäßig privat". Die Realität: Jeder mit einem Link kann deine Notizen lesen.
Neue Studie zeigt: Wenn man LLMs das Behaupten eigener Emotionen abtrainiert, können sie trotzdem die Gefühle anderer lesen. Zwei getrennte Fähigkeiten, ein Modell.
Forscher haben ein Problem entdeckt: KI-Modelle können einzelne Diagramme lesen — aber zwei nebeneinander vergleichen? Fehlanzeige. ChartDiff soll das ändern.
IBM bringt Granite 4.0 3B Vision — ein multimodales Modell, das Unternehmensdokumente lesen, verstehen und verarbeiten soll. Nur 3 Milliarden Parameter. Klein, aber angeblich mit ...
Forscher der TU Wien haben den kleinsten QR-Code der Welt gebaut. Die Pixel sind wenige Dutzend Nanometer breit — lesbar nur unter dem Elektronenmikroskop.
Brain-Computer-Interfaces geben Gelähmten ihre Stimme zurück. Aber wem gehören eigentlich die Daten aus deinem Kopf?
Ein Open-Source-Agent, der Websites bedient — ohne den HTML-Code zu lesen. MolmoWeb schaut sich einfach den Bildschirm an. Wie ein Mensch.
Autonome KI-Agenten können Dateien lesen, Code schreiben, Tools nutzen und ganze Workflows steuern. NVIDIA will jetzt dafür sorgen, dass die nicht alles kurz und klein schlagen.
CLIP hat Nervenzellen, die ein Konzept erkennen — egal ob als Foto, Symbol oder Text. OpenAI hat diese multimodalen Neuronen jetzt sichtbar gemacht.
Google hat A2UI 0.9 vorgestellt — einen neuen Standard, der KI-Agenten erlaubt, Benutzeroberflächen in Echtzeit zu generieren. Framework-unabhängig. Dynamisch. Und ziemlich ...
Dein Chef ruft an, bittet um eine dringende Überweisung. Seine Stimme, sein Räuspern, sein Akzent — alles echt. Nur: Am Telefon sitzt niemand aus der Chefetage. Eine KI spricht.
Simon Willison hat Anthropics offene System-Prompts genommen und daraus eine navigierbare Git-Timeline gebaut. Mit Claude Code als Werkzeug.