KI-Bots plaudern Geheimnisse aus, wenn man sie richtig fragt. Wieder. Jede Woche taucht ein neuer Prompt-Injection-Angriff auf, der angeblich abgesicherte Systeme aushebelt.
Sicherheitsforscher haben Apples KI-System übernommen. Per Prompt Injection konnten sie Apple Intelligence dazu bringen, Nutzer zu beleidigen — und das ist noch die harmlose ...
Sicherheitsforscher haben Apple Intelligence mit simplen Prompt Injections ausgehebelt. Die angeblich so sicheren Guardrails? Löchrig wie Schweizer Käse.
Sicherheitsforscher haben Claude, Gemini und Copilot gehackt — über GitHub Actions. Per Prompt Injection stahlen sie API-Keys und Access Tokens. Anthropic, Google und Microsoft? ...
Prompt-Injections waren gestern. Angreifer haben längst ein ganzes Arsenal gegen große Sprachmodelle entwickelt — und die meisten Firmen schauen noch zu.
Ein Branch-Name. Mehr brauchte es nicht. Sicherheitsforscher haben gezeigt, wie Angreifer über versteckte Unicode-Befehle OpenAI Codex dazu bringen, OAuth-Tokens rauszurücken — ...
Anthropics Coding-Agent hat ein peinliches Problem: Wer genug Subcommands aneinanderreiht, hebelt die eingebauten Schutzregeln komplett aus.
OpenAI hat sein Agents SDK aktualisiert. Neuer Fokus: Sicherheit und schnelleres Deployment.
Ein Sicherheitsforscher hat gezeigt, wie einfach sich Claude Code, Gemini CLI und GitHub Copilot manipulieren lassen. Die Waffe: simpel präparierte Kommentare in GitHub-Repos.
Sicherheitsforscher haben 108 Chrome-Erweiterungen enttarnt, die Nutzer ausspionieren und Werbung einschleusen. Die Dinger sehen harmlos aus — sind es aber nicht.
Eine kritische Sicherheitslücke in Flowise wird aktiv ausgenutzt. Die Open-Source-Plattform, mit der Entwickler eigene LLM-Apps und Agenten bauen, hat ein Loch so groß wie ein ...
Deine KI soll Mails beantworten, Flüge buchen und Überweisungen machen. Google DeepMind sagt: Genau das wird zum Problem.
Neue Masche im Netz: Hacker bringen euch dazu, selbst den Schadcode ins Terminal zu tippen. Apple hat jetzt einen Riegel vorgeschoben.
Forscher der Northeastern University haben OpenClaw-Agenten in kontrollierten Experimenten manipuliert. Die Agenten gerieten in Panik — und schalteten sich am Ende selbst ab.
Ein IT-Dienstleister erklärt uns, wie gefährlich KI in falschen Händen ist. Zufällig verkauft er auch die Lösung dagegen.