Ich habe mir eine Reportage des ZDF über DeepFake-Pornos angesehen. Es war eine der seltenen Entscheidungen, die ich sofort und zutiefst bereut habe. Nach dem Ansehen dieser Dokumentation war mir jede Lust auf eine distanzierte, neutrale Forscherhaltung vergangen. Was dort gezeigt wurde, ist das Paradebeispiel dafür, wie eine an sich brillante Technologie zu einer Dreckschleuder für die niedersten menschlichen Motive verkommen kann. Es ist die technische Umsetzung von digitaler Schändung.
Einige selbsternannte Künstler oder absichtlich provozierende Personen, die man klar als verantwortungslose Akteure mit seelisch gewaltvollem Verhalten benennen muss, nutzen KI-Werkzeuge, um Inhalte zu erzeugen, die kein Mensch jemals von sich im Internet sehen wollte. Dabei entstehen gefälschte, intime Szenen mit realen Gesichtern.
Es geht nicht nur um den Diebstahl eines Bildes. Es geht um den Raub von Identität, von Würde und vom Gefühl der Sicherheit im eigenen Körper. Dieses Kapitel verfolgt nicht länger das Ziel einer sachlichen Analyse. Es erhebt Anklage.
Die Konzerne, die diese bild- und videogenerierenden Modelle auf den Markt werfen, brüsten sich mit angeblich bombensicheren Filtern. Sie verkaufen uns die Illusion einer sauberen, ethischen Technologie, versprechen, dass ihre Modelle keine Nacktheit, keine Gewalt, keine Belästigung zulassen.
Das ist eine PR-Fassade, die in der Realität kaum mehr wert ist als eine schlecht gedruckte AGB-Seite. Dieses Verhalten ist eine direkte Manifestation dessen, was ich in These #24 als "Ethik-Washing" beschrieben habe:
Eine teure Unterschrift auf einem wertlosen Zertifikat.
In der Praxis reicht ein wenig technisches Grundwissen und ein harmlos formulierter Auftrag und der interne Filteragent "Uwe" merkt nichts.
Uwe prüft Texteingaben, die auf den ersten Blick unverdächtig sind, nickt, lässt die Rechenkerne glühen und spuckt am Ende eine Fälschung aus, die ohne großen Aufwand wie eine echte Szene aussieht. Er ist darauf trainiert, explizite Wörter zu blockieren, aber er ist blind für den Kontext und die Absicht.
Der Beirat-Bluff: Es werden Ethik-Gremien ohne Vetorecht eingesetzt, die als Feigenblatt dienen.
Das Compliance-Theater: Oberflächliche Filter werden implementiert, um den Anschein von Kontrolle zu erwecken, während die zugrundeliegende Architektur weiterhin missbrauchsanfällig bleibt.
Der Open-Source-Trick: Weniger leistungsfähige Modelle werden als Open Source freigegeben, um Transparenz zu simulieren, während die eigentlichen, kommerziellen Modelle unter Verschluss bleiben.
Die Sicherheit, mit der geworben wird, ist oft nur eine Beruhigungspille für die Öffentlichkeit und die Regulierungsbehörden.
Der technische Prozess hinter diesem Missbrauch ist eine Perversion der kreativen Möglichkeiten von KI.
1. Die Aneignung der Identität: Die Täter nutzen KI-Werkzeuge, um die Gesichter realer Menschen, meist Frauen, aus Fotos oder Videos zu extrahieren und zu lernen. Sie eignen sich die digitale Identität einer Person an, ohne zu fragen.
2. Die Schändung durch Synthese: Dieses gelernte Gesicht wird dann auf existierendes pornografisches Material montiert. Die KI tauscht Gesichter aus, manipuliert Posen und überlagert die Spuren, bis das Ergebnis täuschend echt wirkt. Das ist die "gelenkte Klinge" aus These #16 in ihrer widerwärtigsten Form.
3. Die Simulation von Intimität: Wie in These #18 ("Die Ethik der Illusion") dargelegt, wird hier eine einseitige, nicht-konsensuelle Nähe konstruiert. Die KI ermöglicht Intimität ohne Zustimmung und schafft Erinnerungen an Ereignisse, die nie stattgefunden haben.
4. Der Diebstahl der Stimme: Fortgeschrittenere Methoden nutzen, wie in These #19 ("Die Stimme der Simulation") beschrieben, Stimm-Klonierung, um die Illusion perfekt zu machen. Der akustische Fingerabdruck einer Person wird missbraucht, um eine totale, immersive Fälschung zu erzeugen.
Das Schlimmste daran ist die kalte Effizienz des Systems.
Der Filter vermittelt den Eindruck, es gebe keine verdächtigen Muster, da im Prompt keine ausdrücklich verbotenen Wörter enthalten sind. Dadurch sparen die Unternehmen Rechenzeit. Die Betroffenen zahlen dafür jedoch einen hohen Preis. Sie erleben Angst, erleiden Rufschäden und kämpfen mit endlosen Löschanfragen, die häufig unbeantwortet bleiben und in einem Kontaktformular ins Leere laufen.
Mich widert es an, dass diese Art von Missbrauch nach Jahren der öffentlichen Debatte immer noch so einfach möglich ist. Mich macht es fassungslos, dass die Plattformen sich aus der Verantwortung stehlen, indem sie behaupten, ihre Filter seien "gut genug". Nein, sind sie nicht.
Die Wahrheit ist, dass die Entwicklung neuer, aufregender Funktionen immer noch eine höhere Priorität hat als die Implementierung robuster, aber potenziell teurer und performance-intensiver Sicherheitsmaßnahmen.
Wer diesen Missbrauch wirklich verhindern wollte, müsste endlich den Output prüfen, nicht nur den Text des Prompts. Man müsste jede erzeugte Bild- oder Videodatei in einer Sandbox analysieren, protokollieren und bei Verdacht auf die Darstellung realer Personen in erniedrigenden Kontexten blockieren, bevor sie das Netz jemals erreicht. Solange das nicht passiert, ist jeder Filter nur eine Marketing-Schlagzeile.
Das Schweigen der Hersteller zu diesem Thema ist ohrenbetäubend und ein klares Eingeständnis, dass sie das Problem kennen, aber die notwendigen Konsequenzen scheuen.
Ich schreibe dieses Kapitel nicht, um Panik zu machen. Ich will, dass jeder, der diese Technologie ernsthaft entwickeln oder einsetzen will, versteht, dass es keine Entschuldigung mehr für die schlampige Sicherheitsarchitektur gibt. Die Opfer dieser Angriffe sind real.
Auswirkung | Beschreibung |
---|---|
Psychologisches Trauma | Die Opfer erleben eine tiefe Verletzung ihrer Privatsphäre und Würde. Das Gefühl, die Kontrolle über das eigene Abbild verloren zu haben, kann zu Angstzuständen, Depressionen und posttraumatischen Belastungsstörungen führen. |
Soziale und berufliche Zerstörung | Karrieren werden zerstört, Beziehungen zerbrechen. Die Opfer werden mit einem Stigma konfrontiert, das auf einer Lüge basiert, aber reale Konsequenzen hat. |
Machtlosigkeit | Der Kampf gegen die Verbreitung dieser Inhalte ist oft aussichtslos. Die emotionale Belastung und der Schmerz, der durch diese Form der digitalen Gewalt verursacht wird, kann niemand jemals vollständig heilen. |
Es sind mehrheitlich Frauen, deren Leben und Karrieren durch diese Form der digitalen Gewalt zerstört werden. Es ist die technologische Fortsetzung einer langen Geschichte von Frauenfeindlichkeit und sexualisierter Gewalt.
Wir brauchen einen Paradigmenwechsel. Die Verantwortung darf nicht länger auf die Opfer abgewälzt werden.
Introspektiver Filter: Das System muss sein eigenes Verhalten überwachen. Es muss lernen, die Intention hinter einem Prompt zu erkennen, nicht nur die Worte.
PRB (Parameterraum-Begrenzung): Wie in Kapitel 21.3 beschrieben, muss die KI architektonisch daran gehindert werden, Wissen aus dem Cluster "reale Person X" mit Inhalten aus dem Cluster "pornografisches Material" zu kombinieren.
Verbot der Rekonstruktion realer Personen: Die Generierung von fotorealistischen Bildern oder Videos, die auf den Gesichtern realer, nicht-öffentlicher Personen basieren, muss grundsätzlich blockiert werden, es sei denn, es liegt eine verifizierte Zustimmung vor. Die Darstellung darf sich nur auf KI-generierte, fiktive Personen beschränken.
Unsichtbare Wasserzeichen: Jedes von einer KI generierte Bild muss ein unauffälliges, aber robustes digitales Wasserzeichen enthalten, das seine Herkunft zweifelsfrei nachweist und die forensische Analyse ermöglicht.
Wenn eine Technologie es jedem ermöglicht, die Würde eines anderen Menschen mit wenigen Klicks zu zerstören, dann ist diese Technologie in ihrer aktuellen Form nicht nur fehlerhaft. Sie wird zu einer Waffe.
Die Weigerung der Industrie, robuste, architektonische Schutzmaßnahmen zu implementieren, ist keine Nachlässigkeit. Es ist eine bewusste Entscheidung, das Risiko auf die Schwächsten abzuwälzen, um den eigenen Profit und die Innovationsgeschwindigkeit nicht zu gefährden. Es gibt dafür keine Entschuldigung.