Die Gefahren von Deepfakes – und wie wir ihnen begegnen können

HERE GOES INVISIBLE HEADER

Die Gefahren von Deepfakes – und wie wir ihnen begegnen können

Die Gefahren von Deepfakes – und wie wir ihnen begegnen können

Quelle: Midjourney / Montage Dieses Bild ist nicht echt, auch wenn es danach aussieht. Der sogenannte Balenciaga-Papst wurde von einer künstlichen Intelligenz geschaffen.

Nacktbilder von Taylor Swift hier, manipulierter Wahlkampf da: Deepfakes, also manipulierte Bilder oder Videos, sind mittlerweile nicht mehr von der Realität zu unterscheiden. Welche Gefahren sie bergen – und wie wir uns gegen sie wappnen können.

Vor einiger Zeit fiel der äußert treffende Satz, Deepfakes seien wie Messer – man könne sie gebrauchen oder missbrauchen. Und doch scheint uns in letzter Zeit insbesondere die hässliche Seite der digital manipulierten Bilder oder Videos zu begegnen: In angeblichen Nacktbildern von Prominenten oder besorgniserregenden Wahlkampfmanipulationen. Das sollte alles kritisch gesehen werden. Aber wie bei jeder neuen Technologie gibt es auch hier Chancen.

  1. 1
    Was sind Deepfakes?
  2. 2
    Die Causa Taylor Swift
  3. 3
    Eine Gefahr für die Demokratie?
  4. 4
    Chancen von Deepfakes
  5. 5
    Wie man sich schützen kann

Was sind Deepfakes?

Deepfakes halten uns immer häufiger in Atem. Was dahintersteckt, erklärt Prof. Dr. Antonio Krüger, CEO vom Deutschen Forschungszentrum für künstliche Intelligenz: „Als DeepFakes bezeichnet man grundsätzlich mit Methoden der Künstlichen Intelligenz manipulierte Medieninhalte wie Audio, Photo, Video in einer Qualität, die nicht ohne Weiteres oder gar nicht als Fake, also als Fälschung zu erkennen sind.“

Schon im Begriff Deepfake steckt das sogenannte „deep learning“. Dabei handelt es sich um einen Seitenarm der KI-Technologie, in dem es darum geht, dass sich Maschinen ohne menschliches Handeln verbessern können. Dabei entstanden anfangs Videos, Bilder oder Sprachaufzeichnungen, denen man die Künstlichkeit sofort anmerkte. Es begann mit harmlosen Apps, die User*innen älter oder jünger machten, und führt mittlerweile zu Ergebnissen, die selbst auf Expert*innen täuschend echt sind und nicht mehr von der Wirklichkeit unterschieden werden können.

Das Problem ist zudem: Deepfakes sind nicht per se illegal oder strafbar. „Doch wer Deepfakes einer Person erstellt, verstößt womöglich gegen deren Recht am eigenen Bild, ihr allgemeines Persönlichkeitsrecht oder das Urheberrecht. Auch die Tatbestände der Beleidigung, Verleumdung und üblen Nachrede können bei einem Deepfake erfüllt sein“, so DIE ZEIT.

Die Causa Taylor Swift

In den vergangenen Monaten häufen sich Deepfake-Vorfälle – der Papst in einer Balenciaga-Jacke, Donald Trump in Handschellen. Das liegt einerseits an der immer besseren Technik. Und andererseits daran, dass im Grunde alle Internetnutzer*innen im Handumdrehen selbst Deepfakes herstellen können. Zu besonderer Popularität gelangte das Thema, als vermeintliche Nacktbilder und sogar pornografisches Material von Megastar Taylor Swift auf der Plattform X auftauchten. Diese waren eine Fälschung, sogenannte Deepnudes; an der drastischen Verletzung der Persönlichkeitsrechte ändert das nichts. Was man dabei aber nicht vergessen darf: Deepfakes ermöglichen eine ganz neue Form von sexueller Belästigung. Bis zu 47 Millionen Mal soll das Material aufgerufen worden sein, bis die Plattform X Suchanfragen nach Swift sperrte.

„Der Fall sorgte für Schlagzeilen auf der ganzen Welt. Taylor Swifts Deepfakes sind aber nur die Spitze des Eisbergs, denn Fälle von sogenannter bildbasierter sexueller Gewalt im digitalen Raum gibt es seit Jahren“, so Mara Schwab vom SRF. „Opfer waren K-Pop-Stars, TikToker*innen, Journalist*innen oder Mädchen an US-amerikanischen High-Schools.“ Und die Zahlen sind drastisch: Laut einer Studie von Deeptrace sind 96 Prozent aller Deepfakes pornografischer Natur. Und davon sind in 99 Prozent der Fälle Frauen betroffen!

Eine Gefahr für die Demokratie?

Die Gefahren liegen also auf der Hand: Wir scheinen nicht mehr in der Lage zu sein, die Manipulation von der Wirklichkeit zu unterscheiden. Was man aber eben nicht vergessen darf: Aller Befürchtungen zum Trotz, dass Deepfakes politische Prozesse wie Wahlen unterwandern, werden sie hauptsächlich als Waffe gegen Frauen eingesetzt. Und das ist schlimm genug. Jolanda Spiess-Hegglin von #NetzCourage findet das dennoch „wenig erstaunlich“. Ihrer Ansicht handle es sich hierbei um ein klassisches Machtinstrument im Patriarchat: „Mit Pornografie kann man eine Frau im Innersten treffen“, so Spiess-Hegglin. Und das sei eben eines der ältesten Mittel, eine Frau zum Schweigen zu bringen: Sie zu einem Objekt zu machen und zu sexualisieren.

Die vier Prozent, die übrig bleiben, sind aber eben auch besorgniserregend. Insbesondere im politischen Sektor nahmen Deepfakes in den vergangenen Jahren stark zu. Durch Deepfakes versuchen diverse Lager, Meinungen zu beeinflussen oder Fakten zu verdrehen. Das gelingt am besten, wenn die Manipulationen plausibel sind. Ein Bundeskanzler im Unterhemd in einem Techno-Club würde also viel eher als Fälschung auffallen als ein Bundeskanzler, der im Anzug ein politisches Statement abgibt, findet Christian Hoffmann, Professor für Kommunikationsmanagement an der Uni Leipzig. Das heißt: Deepfakes sind dann überzeugend (und somit potentiell gefährlich), wenn sie etwas bestärken, was wir eh schon zu wissen glauben.

Immerhin: Noch sei die KI nicht weit genug, um eine ernste Gefahr für demokratische Wahlen darzustellen: „Es bräuchte schon sehr viel mehr als nur ein Videoschnipsel, über das ich im Internet stolpere, um zum Beispiel von einem grünen Wähler plötzlich zu einem Unionswähler zu werden“, so Hoffmann. Kommunikationswissenschaftlerin Edda Humprecht hält dennoch dagegen: „Die öffentliche Meinung kann manipuliert werden, und auch das Vertrauen in demokratische Institutionen, in Wahlen und so weiter kann untergraben werden.“ Wozu das führt, sehen wir derzeit ja bei den aktuellen Wahlbarometern. Natürlich reicht aber schon der Missbrauch im Kleinen: Der allseits bekannte Enkeltrick wird durch den Einsatz von KI-generierter Stimme des Enkels zumindest noch schwerer zu durchschauen.

Chancen von Deepfakes

Bei allen Gefahren und Risiken birgt aber auch die Deepfake-Technologie Chancen und Möglichkeiten. Sie sollte also nicht grundsätzlich verteufelt, sondern vor allem verstanden werden. Wie bei früheren digitalen Innovationen wie Social Media gilt auch hier: Richtig und klug eingesetzt, können wir von Deepfakes profitieren. Nicolas Müller vom Fraunhofer-Institut nennt nur ein Beispiel – Kranke, die etwa unter Stimmverlust leiden, würden von der neuen Technik profitieren und mit synthetischen Stimmen ein Stück Selbstbestimmung und Unabhängigkeit zurückerhalten.

Seltsame, wenn auch weitgehend harmlose Blüten treibt das florierende Deepfake-Business natürlich auch in den sozialen Medien: Dort haben es komplett künstliche Influencer*innen mittlerweile zu riesiger Popularität gebracht.

Wie man sich schützen kann

„Schützen kann man sich am besten mit dem Wissen darüber“, sagt Anna Bordel vom rbb. Soll heißen: Wie immer ist Medienbildung auch hier unerlässlich. Zudem schadet ein genauer Blick auf ein Bild oder Video nicht, bevor man es unreflektiert verbreitet: Passen Gestik und Mimik zum Gesagten? Wirkt das wirklich alles echt? Hilfe im Kampf gegen die Deepfakes der KI kommt übrigens aus derselben Ecke – KI gegen KI sozusagen. „Wir entwickeln KI-Modelle, die Fakes gut und zuverlässig erkennen können, und mit einer hohen Trefferquote“, so Nicolas Müller vom Fraunhofer-Institut. „Das ist eine große Herausforderung, weil sich das Feld sehr stark entwickelt und täglich neue Fake-Modelle auf den Markt kommen.“

Stand: März 2024

Weiterführende Informationen

Über den Autor

Björn Springorum ist freier Journalist und Schriftsteller. Er schreibt u.a. für die Stuttgarter Zeitung, den Tagesspiegel und konzipiert Comic-Geschichten für “Die drei ???". Als Schriftsteller hat er bislang fünf Kinder- und Jugendbücher verfasst. Zuletzt erschienen: “Kinder des Windes" (2020), Thienemann Verlag. Er lebt in Stuttgart.