26.04.2024

Preußische Allgemeine Zeitung Zeitung für Deutschland · Das Ostpreußenblatt · Pommersche Zeitung

Suchen und finden
07.02.20 / Gefahr aus dem Netz / „Deepfake“-Videos alarmieren die Fachwelt / Perfekt manipulierte Filme kursieren zunehmend im Internet: Experten fürchten Schlimmeres als nur schlechte Scherze

© Preußische Allgemeine Zeitung / Folge 06 vom 07. Februar 2020

Gefahr aus dem Netz
„Deepfake“-Videos alarmieren die Fachwelt
Perfekt manipulierte Filme kursieren zunehmend im Internet: Experten fürchten Schlimmeres als nur schlechte Scherze

Im Internet kursieren mittlerweile um die 15 000 pornographische Videos, welche Prominente wie die Schauspielerin Scarlett Johansson oder die Sängerin Taylor Swift beim Sex zeigen. Dabei handelt es sich stets um Fälschungen. Möglich wurden diese durch eine neue Software 

namens Faceswap beziehungsweise DeepFaceLab. Mit der sind IT-Kundige in der Lage, die Köpfe der eigentlichen Darstellerinnen durch die von anderen Personen zu ersetzen.

Was auf den ersten Blick bloß wie unappetitlicher Unfug oder eine Verletzung der Persönlichkeitsrechte oder Beleidigung aussieht, könnte allerdings schnell ernsthafte politische Dimensionen entfalten, wenn Geheimdienste oder Provokateure auf das Verfahren zurückgreifen. So ließen sich auf diese Weise kompromittierende oder zum Hass aufstachelnde Filme produzieren: Einen Vorgeschmack 

hierauf bietet jener Streifen, in dem ein „synthetischer“ Barack Obama seinen Amtsnachfolger Donald Trump als „Volltrottel“ bezeichnet – wobei die Schmährede ursprünglich aus dem Munde des Schauspielers Jordan Peele kam. 

Fälschungen könnten aufwiegeln

Es gehört nicht allzu viel Phantasie dazu sich vorzustellen, in welch enormem Ausmaß die Öffentlichkeit auf diese Weise manipuliert werden kann, sind die Menschen doch geneigt, zu glauben, was sie mit „eigenen Augen“ sehen. Was wäre wohl die Folge, wenn Geheimdienste islamischer Länder Videos in Umlauf brächten, in denen US-Militärs den Koran schänden?

Zum anderen besteht nun prinzipiell auch die Möglichkeit, die Echtheit jeglicher Bildaufzeichnung anzuzweifeln – mit ebenfalls dramatischen Konsequenzen, wie ein Vorfall in Gabun zeigt. Anlässlich des Jahreswechsels 2018/19 stellte die dortige Regierung die traditionelle Ansprache von Staatspräsident Ali-Ben Bongo Ondimba ins Netz. 

Daraufhin bezeichnete die Opposition das Video als Fälschung, weil Mimik und Gestik des Politikers nicht authentisch wirkten. Das wiederum nährte das Gerücht, Bongo Ondimba sei längst tot. Als Reaktion hierauf putschte das Militär des Landes am 7. Januar 2019. Später stellte sich dann jedoch heraus, dass der Präsident noch lebte und seine Körpersprache aufgrund eines Schlaganfalls verändert gewesen war.

Militärputsch wegen falschem Video

Angesichts all dessen ertönen immer häufiger Warnungen vor der Gefahr durch Deepfakes – so unter anderem vonseiten der EU-Kommission und mehrerer US-Geheimdienste. Allerdings arbeiten Forscher bereits an Programmen, die in der Lage sind, solche manipulierten Videos zu erkennen. Hierzu gehört beispielsweise FaceForensics von Matthias Nießner von der Technischen Universität München oder die Software, welche in der 2018 gegründeten Firma Deeptrace entwickelt wird. Somit gibt es auch auf dem Gebiet der Deepfakes einen Wettlauf zwischen den Fälschern, die ihre „Produkte“ kontinuierlich optimieren, und denjenigen, welche den Betrug als solchen zu entlarven versuchen.

Deeptrace-Chef Giorgio Patrini verweist auf die Verantwortung der Journalisten und wirbt für sein Produkt: Wenn brauchbare Software zur sicheren Identifizierung manipulierter Filmsequenzen existiere, müssten die Medienvertreter diese natürlich auch benutzen, statt kritiklos alles zu verwerten, was ihnen in die Hände gerate. Inwieweit dieser Ruf in den bundesdeutschen Zeitungsredaktionen und Rundfunkanstalten ankommt, bleibt indes abzuwarten. Neigt man doch dort vielfach dazu, das für bare Münze zu nehmen, was am besten in das eigene Weltbild passt.  W.K.