3.3 · Deepfakes, Fakeaccounts, Identitätsdiebstahl
Ein Foto reicht.
Wer 2018 ein Deepfake-Video produzieren wollte, brauchte 30 bis 50 Fotos der Zielperson, ein leistungsfähiges Computer-System und mehrere Stunden Rechenzeit. 2026 reicht ein einziges Profilbild und eine kostenlose App. Was vor wenigen Jahren noch ein technisches Werkzeug für Spezialist:innen war, ist heute Massenware.
Die Konsequenzen sind nicht abstrakt. Sie sind in den Beratungsgesprächen, die Becker und Willius schildern, sehr konkret.
Beispiel aus einer Wohngruppe
In einer Jugendwohngruppe taucht ein Video auf — wenige Sekunden lang, aber täuschend echt. Es zeigt einen Mitarbeiter der Einrichtung, wie er eine 12-jährige Bewohnerin küsst. Im Kollegium: Schock, Empörung, sofortige Suspendierung. Erst die forensische Auswertung zeigt: Das Video ist KI-generiert. Beide Gesichter wurden aus Fotos zusammenmontiert — beide Personen haben sich nie berührt.
Schaden für den Mitarbeiter: real. Er ist tagelang von der Arbeit suspendiert, in seinem Freundes- und Familienkreis kursiert das Video. Auch nach der Klarstellung bleibt etwas hängen.
Was bedeutet das für die Schule?
Lehrkräfte müssen sich der Möglichkeit bewusst sein, dass scheinbar eindeutige Bild- oder Videobeweise nicht echt sein können. Bei kompromittierenden Inhalten — bevor reagiert wird — gilt: Erst prüfen, dann handeln. Das gilt für Inhalte über Kolleg:innen ebenso wie für Inhalte über Schüler:innen.
Identitätsdiebstahl — Profile unter falschem Namen
Eine andere Erscheinungsform: Jemand legt ein Profil auf Instagram, TikTok oder einem Spiele-Server unter dem Namen einer realen Person an — und postet damit peinliche Inhalte, beleidigt andere, wirbt um Aufmerksamkeit. Die echte Person erfährt davon oft erst, wenn die ersten Reaktionen sie persönlich erreichen.
Was hilft:
- Beweise sichern: Screenshots der Profile inklusive URL und Datum.
- Bei der Plattform melden: Alle großen Plattformen haben Verfahren für Identitätsdiebstahl. Sie sind langsam, aber wirken.
- Anzeige bei der Polizei — relevant nach § 238 StGB (Nachstellen / Stalking) und § 201a StGB (Verletzung des höchstpersönlichen Lebensbereichs).
- Den Bekanntenkreis informieren — bevor sie auf das Fake-Profil reagieren.
Eine besondere Form: digitale Bilder ohne Einverständnis
Wenn intime Aufnahmen verbreitet werden, die ursprünglich einvernehmlich entstanden waren — etwa zwischen Partner:innen — und nach einer Trennung oder Konflikt veröffentlicht werden, spricht man im internationalen Sprachgebrauch oft von „Revenge Porn”. Becker und Willius vermeiden den Begriff, weil er die Logik der Täter übernimmt — als wäre Verbreitung eine angemessene „Rache”. Sie sprechen lieber von digitaler Gewalt oder, drastischer, „digitaler Vergewaltigung”.
Privacy-Tipps an potenzielle Opfer — eine Form von Kapitulation?
Becker im Podcast: „Wenn wir potenziellen Opfern erklären, was sie alles nicht teilen sollen, akzeptieren wir, dass die Tat als Möglichkeit immer im Raum steht. Das ist Kapitulation.”
Das ist nicht gegen Aufklärung gerichtet. Bewusstsein für eigene Daten ist sinnvoll. Aber es ersetzt nicht die Auseinandersetzung mit den Tätern. Die zentrale Frage darf nicht sein: „Wie schütze ich mich, dass mir das nicht passiert?” Sondern: „Wie verändern wir eine Kultur, in der das überhaupt passiert?”
Reflexionsfragen
- Wenn morgen ein KI-generiertes Video eines Kollegen / einer Kollegin auftauchen würde — wäre Ihre Schule darauf vorbereitet?
- Welche Anlaufstellen kennen Sie für Identitätsdiebstahl-Fälle?
- Wie balancieren Sie zwischen Privacy-Sensibilisierung und der Botschaft „Schutz reicht nicht”?