Die Männer glaubten, was sie online sahen: eine Website voller expliziter, KI-generierter Bilder ihres Gesichts auf dem Körper einer anderen Person, zusammen mit ihrer echten Wohnadresse. Die Seite behauptete, ihr Zuhause sei ein Bordell.

Sweet Anita, eine der bekanntesten Streamerinnen auf Twitch, verstand die Risiken, eine Frau online zu sein, und traf Vorkehrungen. Sie verbarg ihren echten Namen, setzte Grenzen und stellte ein Team ein. Nichts davon hielt jemanden davon ab, Deepfakes von ihr zu erstellen.

Nichts bereitete sie auf das vor, was als Nächstes kam.

Die Geschichte von Sweet Anita

Ein anonymer Mann gab KI-generierte Pornografie von ihr in Auftrag, baute dann eine gefälschte Website, die sie als Sexarbeiterin darstellte – und listete ihre Wohnadresse auf. Das gesamte Setup war darauf ausgelegt, Männer mit der falschen Erwartung zu ihrem Haus zu locken, sie könnten sie zum Sex zwingen. „Nachdem er das getan hatte, kamen Männer zu meinem Haus, besonders wenn ich livestreamte und nicht zu Hause war“, sagte sie. „Ich fühle mich in meinem eigenen Zuhause nicht sicher.“

Fremde mit Reisetaschen versuchten einzubrechen. Sie hatte Angst, Post vom Postboten zu bekommen. Sie musste aufhören, an die Tür zu gehen und das Haus unbeaufsichtigt zu lassen. Sie ist schon einmal umgezogen, aber sie fanden sie immer wieder.

Und der Missbrauch beschränkte sich nicht auf ihre Haustür. Ihre verstorbene Mutter, stolz auf die Arbeit ihrer Tochter, schaute auf Anitas Social Media und war gezwungen, an expliziten, KI-generierten Bildern vorbeizuscrollen. Freunde und Mitarbeiter sahen sie auch. „Ich könnte alles von YouTube, Twitch, all meinen sozialen Kanälen löschen – und es gäbe immer noch jede Menge Bilder meines Gesichts in Videos, die als Referenz verwendet werden könnten“, sagte sie.

Deepfakes sind das neue Mobbing

Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.

Laut einer Studie von Girlguiding(neues Fenster) sagen mehr als einer von vier Teenagern, dass sie ein explizites Deepfake von jemandem gesehen haben, den sie kennen – einen Klassenkameraden, einen Lehrer, einen Freund oder sogar sich selbst. CNN berichtet(neues Fenster), dass 40 % der Schüler und 29 % der Lehrer angaben, im vergangenen Jahr von einem Deepfake von jemandem gewusst zu haben, der mit ihrer Schule in Verbindung steht, und 15 % der Schüler sagten, sie hätten explizite Versionen gesehen. Die meisten Schulen haben keine Richtlinien für den Umgang mit dieser Form des Missbrauchs.

Die Schäden sind schwerwiegend. Opfer können unter Angstzuständen, Depressionen und sogar PTBS leiden. Sie ziehen sich möglicherweise sozial zurück, verlieren Freunde oder vermeiden es, sich auf Jobs oder an Hochschulen zu bewerben, weil explizite Fälschungen bei einer Suche auftauchen könnten. Manche sind sogar gezwungen, Geld auszugeben, um zu versuchen, Inhalte aus dem Internet zu entfernen.

Das Weltwirtschaftsforum merkt an(neues Fenster), dass Deepfakes zwar Wahlen nicht so destabilisiert haben, wie viele befürchteten, sie aber zu einem Werkzeug für Belästigung und Betrug geworden sind. Nicht einvernehmliche Pornografie ist die extremste Form, aber Angreifer nutzen auch geklonte Stimmen und gefälschte Videoanrufe, um Betrug zu begehen. Im Jahr 2024 wurde ein Finanzangestellter in Hongkong dazu gebracht, 25 Millionen Dollar zu zahlen, nachdem er einem Zoom-Anruf beigetreten war, in dem jeder Teilnehmer – einschließlich des CFO – ein Deepfake war(neues Fenster).

„Für den Rest meines Lebens sehe ich keinen Weg, wie ich das persönlich vermeiden könnte“, sagte Anita. „Und ich glaube auch nicht, dass ich dafür verantwortlich sein sollte. Es ist nicht mein Problem, und es ist nicht meine Schuld.“

Das könnte jedem passieren

Es braucht nur eine Handvoll Bilder. Ein öffentliches Instagram. Ein Schulfoto. Ein geteiltes Album. Sobald ein Gesicht online ist, kann es kopiert, gescraped und missbraucht werden.

Laut Professor Carsten Maple vom Cyber Security Centre der University of Warwick reichen mit den heutigen KI-Tools schon 20 Fotos aus, um ein realistisches Profil von jemandem zu erstellen, oder sogar ein 30-sekündiges Video, was den Umfang potenzieller Gefahren erweitert – eine Tatsache, die 53 % der kürzlich befragten Eltern nicht wussten.

Die New York Times berichtete über den Anstieg sogenannter „Nudifier-Apps“(neues Fenster), die mithilfe von KI Kleidung aus Fotos entfernen können. Diese Apps sind billig, einfach zu bedienen und weit verbreitet. Ermittler schätzen, dass die Branche rund 36 Millionen Dollar pro Jahr einbringt. Trotz eines neuen US-Gesetzes, das das Posten nicht einvernehmlicher gefälschter Nacktbilder illegal macht, bleiben die Apps selbst legal. „Jedes Kind mit Zugang zum Internet kann sowohl Opfer als auch Täter sein“, sagte Alexios Mantzarlis, dessen Team 85 solcher Seiten untersuchte, der New York Times.

Private Konten sind keine Garantie für Sicherheit. Täter sind oft Personen, die das Opfer kennt. Selbst scheinbar harmlose Posts, wie von Geburtstagsfeiern, können Details enthüllen, die Identitätsdiebstahl befeuern, von dem im Jahr 2024 schätzungsweise 1,1 Millionen Kinder betroffen waren.

„Leute, die [Deepfakes erstellen], vergessen oft, dass es gruselig ist, dass es unangemessen ist – als ob, wenn ihre Arbeitskollegen und Freunde es wüssten, sie gefeuert und geächtet würden. Sie würden jeden verlieren, den sie kennen, ihre Eltern wären von ihnen enttäuscht, richtig?“ sagte sie. „Aber wenn du online bist und dieses Material füreinander mit einem Haufen gleichgesinnter Creeps erstellst, dann ist es für sie nur ein Hobby und ein Zeitvertreib. Sie können die Auswirkungen, die es auf das Leben von Menschen hat, völlig ausblenden und vergessen und sich darüber täuschen.“

Das Deepfake-Risiko geht weit über soziale Medien hinaus

Heute geht das größte Risiko vielleicht davon aus, was in sozialen Medien geteilt wird. Aber was ist mit all den Fotos, die du überhaupt nicht teilst?

Google, Apple, Amazon, Meta und andere bieten alle Cloud-Speicher für deine Fotos an, manchmal kostenlos. Aber diese Bequemlichkeit hat ihren Preis. Google nutzt deine Fotos schon seit mindestens 2015, um KI zu trainieren, als es gezwungen war, sich dafür zu entschuldigen, ein schwarzes Paar als „Gorillas“ klassifiziert zu haben(neues Fenster). Seitdem sind alle großen Speicheranbieter viel besser bei der Gesichtserkennung geworden. Wie glaubst du, ist das passiert? Mehr Fotos, die ständig die KI füttern.

Die Milliarden von Fotos und Videos, die bei Big Tech gespeichert sind, sind eine riesige Fundgrube an Material, das eines Tages Futter für die Generierung unglaublich detaillierter und lebensechter Deepfakes sein könnte.

Alles, was es braucht, ist eine stille Änderung der Nutzungsbedingungen.

Schütze deine Erinnerungen wie deine Passwörter

Du kannst nicht kontrollieren, was andere mit deinem Bild tun. Aber du kannst kontrollieren, wo deine Bilder leben und wer Zugriff auf sie hat. Proton Drive bietet dir einen privaten, verschlüsselten Weg, die Fotos und Dateien zu speichern, die am wichtigsten sind.

  • Ende-zu-Ende-Verschlüsselung: Deine Dateien werden verschlüsselt, bevor sie jemals dein Gerät verlassen. Im Gegensatz zu Big Tech kann nicht einmal Proton sie sehen.
  • Standardmäßig privat: Deine Daten werden niemals verkauft, geteilt oder zum Trainieren von KI verwendet.
  • Sicheres Teilen: Füge Passwörter hinzu, lege Ablaufdaten fest oder widerrufe den Zugriff jederzeit.
  • Automatische Sicherung: Selbst wenn dein Telefon verloren geht oder gestohlen wird, bleiben deine Erinnerungen sicher.

Mit Proton Drive bleiben deine Daten deine – immer.