Login

Bitte wählen Sie

Übersicht

Blättern

Sparda surfsafe

Deepfakes: Gefälschte Videos aus der Retorte

Während Manipulationen bei Fotos bereits seit Jahren bekannt sind, galten Filmaufnahmen bislang als Beweis mit einer gewissen Aussagekraft. Doch in Zeiten von Künstlicher Intelligenz und ausgefeilten Algorithmen müssen wir uns von dieser Vorstellung verabschieden. Bereits seit 2017 existieren die technischen Mittel, um Videos von beliebigen Personen mit beliebigem Inhalt am PC zu erstellen. SpardaSurfSafe, eine Initiative der Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg, erklärt was es mit den sogenannten Deepfakes auf sich hat.

Wenn plötzlich alle Personen im Film „Herr der Ringe“ das Gesicht von Nicholas Cage haben, dürften die meisten Zuschauer ahnen, dass es sich hierbei um eine Fälschung handelt. Wenn jedoch Barack Obama sagt, dass sein Nachfolger im Weißen Haus ein inkompetenter Idiot sei, wenn auch mit dem Zusatz, dass er das natürlich nie sagen würde, ist das deutlich schwerer zu erkennen. In beiden Fällen wurde eine Künstliche Intelligenz (KI) über das sogenannte Machine Learning trainiert, um Gesichter, Mimik und Stimme der Personen nachahmen zu können. Dafür wird der Computer mit Bildern, Videos und Tonaufnahmen dieser Person gefüttert, bis er eine ausreichend große Menge an Daten hat, um sie künstlich nachzubilden. Dabei gilt: Je mehr Material eingegeben wird, desto besser das Ergebnis. Fehlt dagegen Material, beispielsweise aus einem bestimmten Blickwinkel, wird das Video an dieser Stelle unscharf, denn die KI hat nur die Möglichkeit, Details wegzulassen. Das Resultat ist ein sogenanntes Deepfake-Video.

Deepfakes existieren seit über zwei Jahren. Damals hat ein Nutzer mit dem Pseudonym deepfakes eine Reihe von pornografischen Filmen mit Prominenten in den Hauptrollen auf einer Unterseite der Webseite Reddit hochgeladen, natürlich ohne deren Beteiligung oder Einverständnis. Er hatte einen Code entwickelt, der es ihm erlaubte, beliebige Personen in eine Handlung seiner Wahl einzufügen. Die Deepfakes waren geboren. „Der damalige Code ist als Open Source für jeden frei verfügbar. Mittlerweile existiert sogar eine App, mit der sich solche Videos produzieren lassen. Man braucht nur ausreichend Bildmaterial seiner Zielperson, weswegen besonders häufig Prominente Opfer der Fake-Videos werden. Da aber auch Privatpersonen immer mehr Bilder auf Facebook, Instagram und Co. hochladen, kann sich das auch schnell ändern“, erklärt Götz Schartner vom Verein Sicherheit im Internet e. V., einem der Mitveranstalter von SpardaSurfSafe.

Während die eingangs genannten Beispiele durchaus lustig und harmlos sind, dürfte es für die betroffenen Prominenten weniger witzig gewesen sein, sich selbst in einem Porno wieder zu finden. „Bislang konnte man sich weitgehend darauf verlassen, dass ein Video auch die Realität zeigt. Videobearbeitungen und computergeneriertes Material haben zwar existiert, waren aber teuer, aufwendig und damit nicht allgemein zugänglich. Das hat sich jetzt geändert und man muss genau hinterfragen, ob ein Video echt ist oder nicht. Das birgt auch ein gewisses Risiko, denn auch Politiker können in solche Videos eingefügt werden. Wenn ihre politischen Gegner oder Feinde sie dann Aussagen treffen lassen, die in der Realität schlimme Auswirkungen auf die diplomatischen Beziehungen haben, wird es gefährlich. Auch zu Propagandazwecken lassen sich Deepfakes nutzen, beispielsweise um Wähler zu manipulieren. Zudem werden die Deepfakes immer besser und damit schwieriger zu erkennen“, warnt Schartner.

Da verwundert es nicht, dass Forscher bereits an verschiedenen Software-Lösungen arbeiten, die die Fake-Videos erkennen sollen. Das ist sicher sinnvoll, diese Programme werden aber längst nicht allen Nutzern zeitnah zur Verfügung stehen und ob die Video-Plattformen sie integrieren, wird sich zeigen müssen. Der Experte rät daher, Videos genauso wie Fotos mit einer gewissen Skepsis zu begegnen. Solange es sich um einen harmlosen Spaß handelt, wie Sharon Stone in ihrer Paraderolle in Basic Instinct durch den Schauspieler Steve Buscemi zu ersetzen, halten sich die Schäden in Grenzen. Was jedoch darüber hinausgeht, sollte man durchaus ernst nehmen.

Über SpardaSurfSafe – eine Initiative der Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg
Veranstalter und Träger von SpardaSurfSafe ist die Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg, die gemeinsam mit dem Kultusministerium Baden-Württemberg, dem Verein Sicherheit im Internet e. V. und dem Landesmedienzentrum Baden-Württemberg das Großprojekt im achten Jahr durchführt. In Kooperation mit den IT-Sicherheitsexperten der 8com GmbH & Co. KG wurde ein Konzept entwickelt, das die Schüler im Rahmen des Unterrichts im Umgang mit den Neuen Medien aufklärt. „Wir haben das Konzept in den vergangenen Jahren erfolgreich in 27 verschiedenen Städten in Baden-Württemberg mit rund 370.000 Teilnehmern durchgeführt. Dafür bekommen wir durchweg positives Feedback von den Teilnehmern, ob Schüler, Eltern oder Lehrer“, erklärt Patrick Löffler vom Verein Sicherheit im Internet e. V.

Übersicht

Blättern

Kontakt
Vor Ort
Termin
FAQ
Kontakt

Rufen Sie uns an - wir sind gerne für Sie da

0711 / 2006 - 2006
Vor Ort

Immer in Ihrer Nähe

Finden Sie schnell und einfach den Weg zur nächsten Filiale oder die nächste kostenfreie Möglichkeit Geld abzuheben.

Termin

Vereinbaren Sie einen Termin

In unseren Filialen beraten wir Sie gerne zu allen Themen und freuen uns auf Ihren Besuch!

Bis bald in unserer Filiale!

FAQ

Sie haben Fragen? Wir die Antworten!