Forscher haben ein Problem entdeckt: KI-Modelle können einzelne Diagramme lesen — aber zwei nebeneinander vergleichen? Fehlanzeige. ChartDiff soll das ändern.
Können VLMs ein komplexes Diagramm anschauen und den Code dafür ausspucken? Ein neues Paper sagt: Lasst uns das endlich sauber messen.
14 führende KI-Modelle sollten komplexe Visualisierungen aus realen Datensätzen erzeugen. Das Ergebnis: selbst die Besten verlieren fast die Hälfte ihrer Leistung.
Wissenschaftliche Papers behaupten viel — und belegen es mit Grafiken, Tabellen, Diagrammen. Aber checkt die KI auch wirklich, ob Bild und Behauptung zusammenpassen? Ein neuer ...
Google Gemini kann jetzt interaktive Visualisierungen direkt im Chat erzeugen. Diagramme, Karten, Dashboards — alles ohne externes Tool. Claude von Anthropic konnte das schon ...
Confluence kann jetzt Bilder malen und Agenten anschleppen. Atlassian hat sein Wiki-Tool mit visuellen KI-Features und Drittanbieter-Agenten aufgerüstet.
Ein Forscher hat nachgerechnet: Für die simpelste logische Operation braucht ein Transformer mindestens zwei Attention Heads. Der Beweis? Überraschend einfach.
OpenAI hat die System Card zu GPT-4V veröffentlicht. Das Modell kann jetzt Bilder verstehen — und OpenAI zeigt, wo die Grenzen liegen.