Ein Forscherteam zeigt: Für Content Moderation braucht man keine teuren Mega-Modelle. Ein kleines Sprachmodell mit externen Tools schlägt die Großen — bei einem Bruchteil der ...
Die legendäre Silicon-Valley-Firma Kleiner Perkins hat frisches Kapital eingesammelt — und steckt alles in Künstliche Intelligenz.
Die legendäre VC-Firma Kleiner Perkins hat am Dienstag neue Fonds über 3,5 Milliarden Dollar angekündigt. Alles fließt in Künstliche Intelligenz.
Kleinere Modelle trainieren, ohne auf Power zu verzichten. MIT-Forscher haben einen Weg gefunden, der die Branche umkrempeln könnte.
IBM bringt Granite 4.0 3B Vision — ein multimodales Modell, das Unternehmensdokumente lesen, verstehen und verarbeiten soll. Nur 3 Milliarden Parameter. Klein, aber angeblich mit ...
Together AI zeigt, wie man große Kontextfenster richtig nutzt. Nicht mit einem fetten Modell — sondern mit vielen kleinen.
Bonner Forscher haben Transformer-Modelle umgebaut. Die dürfen jetzt selbst entscheiden, wie lange sie über eine Aufgabe grübeln. Ergebnis: Kleine Modelle schlagen deutlich ...
Ein Team aus Bonn hat Transformer-Modelle gebaut, die selbst entscheiden, wie lange sie über eine Aufgabe grübeln. Das Ergebnis: Kleine Modelle schlagen deutlich größere — ...
Google hat Gemma 4 veröffentlicht. Vier Modellgrößen, Open Weights, multimodal — und komplett unter Apache 2.0.
Massive Angriffswelle auf Onlineshops. Hacker nutzen eine Sicherheitslücke, kapern die Seiten und schleusen sogenannte Web-Skimmer ein — kleine Schadcode-Schnipsel, die beim ...
Frontier-Modelle wie GPT-4o oder Claude Opus lösen Mathe-Olympiaden und knacken offene Probleme. Aber wer prüft, ob deren Beweise überhaupt stimmen? Ein neues Paper zeigt: Dafür ...
Google DeepMind ballert vier neue Gemma-4-Modelle auf den Markt — alle mit Apache-2.0-Lizenz, alle mit Vision-Fähigkeiten, alle mit Reasoning. Das ist kein kleines Update, das ist ...
Google DeepMind hat Gemma 4 veröffentlicht. Vier Vision-fähige Reasoning-LLMs, alle unter Apache 2.0 — also wirklich offen, nicht "offen mit Sternchen".
Wie macht man ein 70-Milliarden-Parameter-Modell klein genug für den Laptop? Sam Rose zeigt es — mit dem vielleicht besten interaktiven Essay des Jahres.
Hugging Face zeigt, wie man mit simplen Matrizen-Tricks LLMs radikal abspeckt. Keine neue Architektur, kein neues Modell — nur clevere Mathematik.
Together AI bietet ab sofort Mistral Small 3 über seine API an. Das kleine Modell aus Paris will die Kategorie der kompakten LLMs anführen.
Die KI-Industrie hat ein Hardwareproblem. Die Nachfrage nach Rechenleistung für KI-Agenten wächst schneller als das Angebot — und jetzt knallt es überall gleichzeitig.
Ein kleines Lab namens z-lab hat ein Tool gebaut, das große Sprachmodelle beim Antworten massiv beschleunigt. Die Methode: Block Diffusion trifft auf Speculative Decoding.
Forscher haben eine neue Methode vorgestellt, die große Sprachmodelle kleiner macht — ohne sie neu trainieren zu müssen. Das Paper heißt "SoLA" und kombiniert zwei Tricks: Soft ...
Autonome Autos sollen Unfälle vorhersagen, bevor sie passieren. Doch aktuelle Top-Modelle knicken ein, sobald sich am Eingangsbild auch nur Kleinigkeiten ändern.