600 Schüler wurden Opfer von KI-Nacktbildern
90 Schulen weltweit, 600 betroffene Schülerinnen und Schüler. WIRED und das Recherche-Team Indicator haben das bisher größte Ausmaß von Deepfake-Nacktbildern an Schulen dokumentiert.
Die Zahlen sind brutal
- 90** — betroffene Schulen weltweit
- 600+** — Schülerinnen und Schüler als Opfer identifiziert
- 0** — Anzeichen, dass das Problem kleiner wird
Wie es funktioniert
Sogenannte "Nudify"-Apps nehmen ein normales Foto und generieren per KI eine nackte Version davon. Die Tools sind frei verfügbar, kosten oft nichts und brauchen null technisches Wissen. Ein Smartphone reicht.
Täter sind in vielen Fällen Mitschüler. Minderjährige, die Bilder von Minderjährigen fälschen. Die Bilder landen in Gruppenchats, auf Schulhöfen, manchmal im offenen Netz.
Was das bedeutet
Das ist kein Randphänomen aus dunklen Ecken des Internets. Das passiert an ganz normalen Schulen — weltweit. Die Opfer sind überwiegend Mädchen und junge Frauen. Die psychischen Folgen sind real, die Gesetze hinken hinterher, und die Technik wird jeden Monat einfacher zugänglich.
Pro (was hilft)
- Erste Länder verschärfen Gesetze gegen Deepfake-Missbrauch
- Schulen beginnen, das Thema im Unterricht zu behandeln
- Plattformen sperren einzelne Nudify-Tools
Con (was nicht hilft)
- Neue Apps tauchen schneller auf als alte gesperrt werden
- Viele Opfer erstatten keine Anzeige aus Scham
- Lehrkräfte sind völlig unvorbereitet
- Bestehende Gesetze decken KI-generierte Bilder oft nicht ab