NYT feuert Autor wegen KI-Plagiat
Die New York Times hat einen Autoren gefeuert. Grund: Ein KI-Tool kopierte Passagen aus dem Guardian — und niemand hat's gemerkt.
Was passiert ist
Ein Redakteur nutzte ein KI-Tool zur Recherche-Unterstützung. Das Tool lieferte Textpassagen, die direkt aus Guardian-Artikeln stammten. Der Autor übernahm sie ohne Prüfung — klassisches Copy-Paste mit Extra-Schritten.
Aber es kommt schlimmer: In einem zweiten Fall tauchten frei erfundene Zitate auf. Die KI halluzinierte Aussagen, die nie jemand gesagt hat. Zwei Fälle, ein Muster.
Was gestohlen wurde
- Kopierte Passagen** aus Guardian-Artikeln, ungeprüft übernommen
- Erfundene Zitate** — Personen wurden Worte in den Mund gelegt, die nie fielen
- Null Kontrolle** — der Redakteur hat die KI-Ausgabe nicht gegengelesen
✅ Pro
- KI-Tools können Recherche beschleunigen
- Zusammenfassungen sparen Zeit bei großen Quellen
❌ Con
- Sprachmodelle kopieren manchmal wörtlich aus Trainingsdaten
- Halluzinierte Zitate zerstören Glaubwürdigkeit
- Wer nicht prüft, plagiiert — mit oder ohne KI
- Ein Fehler reicht, um eine Karriere zu beenden
💡 Was das bedeutet
Journalismus lebt von Vertrauen. Wenn Redaktionen KI einsetzen, aber keine Prüfprozesse haben, wird aus einem Produktivitäts-Tool eine Plagiat-Maschine. Die NYT hat schnell reagiert — andere Redaktionen sollten sich fragen, ob ihnen das Gleiche passieren könnte.