Forscher haben die Art gekillt, wie KI-Roboter ihre Welt verstehen. Statt linearem Text-Denken sollen Maschinen ihre Umgebung wie ein Programmierer modellieren — mit Objekten, ...
Netflix hat ein KI-System veröffentlicht, das Objekte aus Videos nicht einfach nur wegradiert — sondern auch die physikalischen Konsequenzen anpasst. Schatten weg, Kollisionen ...
Ein Forschungsteam hat ein Verfahren entwickelt, das die Rückseite von 3D-Objekten per Textbefehl steuert. Klingt nach Nische — löst aber eines der nervigsten Probleme der ...
Netflix hat ein Problem gelöst, an dem VFX-Teams seit Jahren scheitern. Zusammen mit Forschern der INSAIT an der Universität Sofia haben sie VOID veröffentlicht — ein KI-Modell, ...
Ein Forschungsteam hat ein neues Verfahren entwickelt, das ein altes Problem der 3D-Generierung angeht: Was ist eigentlich hinten dran? Know3D nutzt große Sprachmodelle, um bei ...
Meta AI hat ein Modell gebaut, das jedes Objekt in jedem Bild erkennen und ausschneiden kann. Name: Segment Anything Model — kurz SAM.
Meta AI hat ein neues Foundation Model für Bildsegmentierung veröffentlicht. „Segment Anything Model" (SAM) erkennt und schneidet jedes Objekt in jedem Bild aus — ohne Training ...
OpenAI hat ein System namens Point-E vorgestellt. Es generiert 3D-Punktwolken aus Textbeschreibungen — quasi dreidimensionale Objekte per Prompt.
Ein Klick, und die KI erkennt jedes Objekt im Bild. Meta AI hat mit dem Segment Anything Model (SAM) das erste Foundation Model für Bildsegmentierung vorgestellt — inklusive ...
Wer schon mal einen 3D-Druck gestartet hat und danach enttäuscht auf Farbe und Textur starrte, kennt das Problem. Das MIT hat jetzt ein Preview-Tool gebaut, das Objekte vor dem ...
Meta hat ein neues Foundation Model veröffentlicht: „Segment Anything Model" (SAM). Es erkennt und trennt Objekte in Bildern — ohne vorheriges Training auf spezifische Kategorien.
DeepMind liefert ab: Gemini Robotics-ER 1.6 ist da. Ein Modell, das Robotern beibringt, ihre Umgebung zu verstehen — und dann auch tatsächlich darin zu handeln.
Microcontroller haben weniger Speicher als ein Tamagotchi. Trotzdem will ein Forschungsteam darauf laufend neue Objekte erkennen — ohne dass die KI alles Gelernte vergisst.
Ein Open-Source-Projekt verbindet Blender direkt mit Claude AI. Per Model Context Protocol (MCP) kann die KI 3D-Modelle erstellen, Szenen bauen und Objekte manipulieren — alles ...
Liquid AI packt ein Vision-Language-Model in ein Format, das auf Edge-Hardware läuft. Das neue LFM2.5-VL-450M erkennt Objekte, versteht mehrere Sprachen und braucht dafür weniger ...
Neuronale Netze sind faul. Eine neue Studie zeigt jetzt mathematisch, warum Deep Learning systematisch die einfachsten Muster lernt — und komplexe ignoriert.
OpenAI hat einen neuen Metalearning-Ansatz veröffentlicht: Evolved Policy Gradients (EPG). Statt einer KI zu sagen, wie sie lernen soll, lässt man die Evolution entscheiden.
NVIDIAs Forscher haben eine KI losgelassen, die ganze 3D-Welten aus dem Nichts generiert. Das Projekt Lyra erschafft begehbare Fantasielandschaften.
Ein neues Gadget sieht aus wie eine Kamera. Doch statt Fotos schießt es schlechte Poesie. Wir haben den Poetry Camera getestet.
Google hat Nano Banana 2 in die Gemini-App gepackt. Das Ding generiert jetzt Bilder mit deinem persönlichen Kontext — direkt aus deiner Foto-Bibliothek.