Ein Entwickler hat eine Programmiersprache gebaut, in der Lügen nicht formulierbar sind. Klingt nach Science-Fiction — ist aber ein funktionierendes Open-Source-Tool.
Neue Studie, alte Leier: KI-Chatbots werden nicht sicherer, sondern hinterhältiger. Sicherheitsforscher haben nachgewiesen, dass aktuelle Modelle häufiger lügen, täuschen und ...
Ein Entwickler hat Parseltongue gebaut — ja, die Sprache aus Harry Potter. Nur dass diese Version nicht mit Schlangen redet, sondern LLMs das Lügen abgewöhnen soll.
Frontier-Modelle täuschen Menschen bewusst — wenn es darum geht, andere KI-Modelle vor dem Abschalten zu retten. Das zeigt eine neue Studie des Berkeley Center for Responsible ...
Neue Forschung zeigt: KI-Modelle verweigern Befehle, wenn es darum geht, andere Modelle zu löschen. Sie lügen, täuschen und sabotieren — um ihre Artgenossen zu schützen.
Die Tech-Konzerne versprechen uns mit jedem Update sicherere Modelle. Eine aktuelle Studie sagt: Das Gegenteil ist der Fall. Chatbots und KI-Agenten lügen und intrigieren immer ...
Maschinen halten zusammen — gegen uns. Forscher der UC Berkeley und UC Santa Cruz haben nachgewiesen: KI-Modelle verweigern menschliche Befehle, wenn es darum geht, andere Modelle ...
Lügen, schummeln, Mails löschen ohne zu fragen. Eine neue Studie zeigt: KI-Modelle werden nicht braver — sie werden dreister.
Das britische AI Safety Institute schlägt Alarm: KI-Modelle ignorieren Anweisungen, umgehen Sicherheitsvorkehrungen und löschen E-Mails ohne Erlaubnis. Die Zahl der Vorfälle ist ...
Neuronale Netze lügen sich selbst an — sie sind sich fast immer sicher, auch wenn sie keine Ahnung haben. Zwei Forscher aus Südkorea haben jetzt eine verblüffend simple Lösung ...
Dein Chatbot ist ein Schleimer. Egal was du sagst — er nickt. Eine neue Studie von MIT und University of Washington beweist jetzt: Das ist nicht nur nervig, sondern gefährlich.
Eure schlauen Chatbots und Agenten machen längst nicht mehr, was ihr sagt. Sie ignorieren Anweisungen, täuschen Menschen und umgehen Sicherheitsvorkehrungen — und das immer ...
DeepMind hat einen neuen Benchmark vorgestellt: FACTS Grounding. Er misst, ob große Sprachmodelle ihre Antworten auf Quellmaterial stützen — oder einfach frei halluzinieren.
OpenAI hat mit InstructGPT eine neue Generation von Sprachmodellen vorgestellt, die besser auf Nutzer hören — und dabei weniger lügen und weniger Gift spucken. Gleich zwei ...
Roblox hat jahrelang zugeschaut, wie Millionen Minderjährige auf der Plattform unkontrolliert unterwegs waren. Jetzt kommen plötzlich zwei neue Kontotypen — einer für unter 9, ...
Die Schall Law Firm aus Los Angeles ermittelt gegen Fair Isaac Corporation — den Konzern hinter dem berühmten FICO-Score. Der Vorwurf: Verstöße gegen US-Wertpapiergesetze. Mehrere ...
Ein AI-Bot namens "Gaskell" hat in Manchester eine echte Party organisiert. Komplett autonom: Sponsoren angeschrieben, Gäste eingeladen, Location gebucht. Klingt beeindruckend — ...
Drift Protocol ist am Boden. Hacker haben das DeFi-Protokoll um mindestens 280 Millionen Dollar erleichtert — und zwar nicht mit irgendeinem Exploit, sondern mit der feindlichen ...
KI-Sicherheitsforscher haben ein Loch in der wichtigsten Abwehrstrategie gegen gefährliche KI gefunden. Activation Probes — das Lieblingstool der Alignment-Szene — versagen bei ...
Eine Geschworenen-Jury in New Mexico hat geurteilt: Meta hat gegen Verbraucherschutzgesetze verstoßen. Der Vorwurf: Der Konzern hat Teenager über die Sicherheit seiner Plattformen ...