Blosse Unterhaltung oder gefährliche Waffe?
Deepfakes zählen zur Schattenseite der fortschreitenden Entwicklung von künstlicher Intelligenz.
Damian Zogg (17)
Ist es möglich, als unschuldiger Zivilist plötzlich in einen Mordfall, einen Bankraub oder einen Einbruch verwickelt zu sein, weil man auf einer scheinbar echten Aufnahme einer Überwachungskamera festgehalten ist? Sogenannte «Deepfakes», realistisch wirkende Fotos, Audiodateien und Videos, die mithilfe künstlicher Intelligenz erzeugt oder verfälscht worden sind, bringen seit einiger Zeit Menschen in unangenehme Situationen.
Der Begriff «Deepfake» setzt sich aus den Begriffen «Deep Learning» (maschinelles Lernen von künstlicher Inteligenz) und «Fake», also einer Fälschung, zusammen. Gesichter können auf Bildern und Videos digital ausgetauscht werden, ja sogar Mimik und Bewegungen der ursprünglichen Person, deren Gesicht überlagert wird, können in wenigen Schritten übernommen werden. Dieses Phänomen nennt sich Face-Swapping. Leider werden damit nicht nur harmlose, scheinbar lustige Bilder, wie das des Papsts in einer hippen weissen Daunenjacke erstellt. Vermehrt nutzen Kriminelle diese Technologien für Betrugsdelikte, Nötigungen, Erpressungen und weitere Straftaten.
Durch Deepfakes können auch Beweisfotos oder -videos manipuliert und unschuldigen Personen Straftaten in die Schuhe geschoben werden. Für Ermittlungsbehörden kann die Aufklärung von Straftaten dadurch extrem erschwert werden. In den Händen von Cyberkriminellen finden Deepfakes allerlei Anwendungen, warnen auch Interpol-Experten. So haben beispielsweise Enkeltrick-Betrüger durch «Audio Deepfakes» neue Wege gefunden, um die Stimmen von Verwandten, Freunden oder anderen vertrauenswürdigen Personen orginalgetreu nachzuahmen. Dadurch bringen die Täter ihre Opfer oft dazu, grössere Summen an Geld zu überweisen oder sensible Informationen preiszugeben.
Sex mit Hollywood-Stars
Haupteinsatzgebiet von Deepfakes ist jedoch die Erstellung pornografischer Inhalte. So sollen 98 Prozent der Deepfakes im Internet sogenannte Sexfakes sein. Ob prominente Frauen oder Privatpersonen, die beispielsweise Bilder auf Instagram posten: Täter missbrauchen deren Gesichter und produzieren damit pornografische Inhalte, die täuschend echt wirken.
Original und Fälschung: Das Nacktmodell Natali Tihomirova (links bzw. oben) und die gefälschte Version mit dem Gesicht von Scarlett Johansson.
Als Grundlage dienen meist bestehende Pornovideos oder Nacktbilder und mithilfe von Face-Swapping wird das Gesicht ausgetauscht. Prominente Frauen wie «Harry Potter»-Star Emma Watson oder «Black Widow»-Darstellerin Scarlett Johansson sind häufige Opfer solcher gefälschter Pornos, die auch auf Websites angeboten werden, die auf Deepfake-Pornografie spezialisiert sind.
Ein auf Deepfake-Pornografie zugeschnittener Straftatbestand fehlt in der Schweiz. «Hier weist das Strafgesetzbuch gewiss noch Lücken auf, wie das bei allen neuen, digital ausgeübten Straftaten der Fall ist – so auch beim Thema Cybermobbing», schreibt Dirk Baier, Kriminologe und Experte für Jugendgewalt, in einem Bericht von «20 Minuten». Dennoch sollten Opfer zur Polizei gehen und Anzeige erstatten, denn die Fake-Videos verstossen laut dem Schweizer Zivilgesetzbuch (ZGB) auch gegen das Recht auf Privatsphäre und Persönlichkeitswahrung. Für betroffene Frauen sind diese Aufnahmen entwürdigend und können auch traumatsierende Folgen haben.
Deepfakes sind für die einen eine spassige Erfindung, die die Menschen im Internet zum Lachen bringt, für andere sind sie ein regelrechter Albtraum. Es ist wichtig, dass über diese Thematik aufgeklärt und informiert wird, damit die Risiken von künstlicher Intelligenz besser erkannt werden. Künstliche Intelligenz entwickelt sich immer weiter und wird immer raffinierter – und damit wohl auch die Straftaten.
Quellen:
https://de.wikipedia.org/wiki/Deepfake
https://www.macromedia-fachhochschule.de/de/beratung/ratgeber/gefahren-deepfakes/