Ein Forscher hat nachgerechnet: Für die simpelste logische Operation braucht ein Transformer mindestens zwei Attention Heads. Der Beweis? Überraschend einfach.
Die KI-Firma hat Führungskräfte-Abgang. Gleich drei Manager verlassen OpenAI.
Simon Willison hat Version 0.25 seines `llm-anthropic`-Plugins veröffentlicht. Mit dabei: Support für Claude Opus 4.7 und ein neuer Thinking-Modus namens `xhigh`.
Teheran fordert, dass Schiffe im Persischen Golf mit digitalen Währungen zahlen. Der Grund ist simpel: Krypto lässt sich nicht so leicht einfrieren wie Dollars.
Während Washington Exportkontrollen verschärft, antwortet Peking mit Hardware. Alibaba hat einen Compute-Cluster mit 10.000 KI-Chips in Betrieb genommen — komplett ohne westliche ...
Niemand hatte das auf dem Zettel. Intel schließt sich Elon Musks Terafab-Projekt an — und die Aktie schießt sofort nach oben.
Simon Willison wollte seine eigene Version von Claude Artifacts bauen. Dabei stellte sich eine Frage: Kann man JavaScript in einem Iframe per CSP-Meta-Tag einsperren — ohne eine ...
DeepSeek hat ein neues Open-Source-Repo veröffentlicht: Engram. Die Idee dahinter: Large Language Models brauchen neben Mixture-of-Experts eine zweite Spar-Achse — und die heißt ...
Die Ära des Standard-LLM wackelt. Sebastian Raschka, einer der respektiertesten ML-Forscher überhaupt, hat die wichtigsten Alternativen zum klassischen Transformer-Decoder ...
Sebastian Raschka hat seinen massiven Architektur-Vergleich großer Sprachmodelle aktualisiert. Von GPT-2 bis DeepSeek V3 und Llama 4 — alles in einer Übersicht. Neu dabei: ...