
Gehören Deepfakes bald zur Alltagskultur?
Oft ist der Horror täuschend echt: Deepfakes haben in den vergangenen Jahren enorme Fortschritte gemacht. Das Fraunhofer-Institut hat in einer Erhebung untersucht, wie sich Deepfakes auf die Gesellschaft auswirken.
Für die Erhebung wurden verschiedene gesellschaftliche Bereiche unter die Lupe genommen, ebenso der aktuelle Stand der technologischen Möglichkeiten zum Thema Deepfakes. Audioinhalte in dieser Sparte zu erstellen, ist laut Studie vergleichsweise einfach – doch für ein echt wirkendes Deepfake-Video muss deutlich mehr Aufwand betrieben werden. Die Umfrage betont jedoch, dass dies nicht mehr lange so bleiben wird und die Erstellung von Deepfakes bald Teil unser aller Alltagskultur werden könnte.
Deepfakes zwischen Risiko und Chance
Mehr als 1.300 Personen in der Schweiz wurden dazu befragt, wie sie Deepfakes wahrnehmen. Knapp 50 Prozent hatten schon einmal davon gehört, nur wenige hatten bereits selbst Deepfake-Inhalte erstellt oder verbreitet. Die Befragten brachten Deepfakes häufig mit dem Begriff Fake-News in Verbindung.
Die Studie hat auch untersucht, wie sich Deepfakes auf Journalismus, Politik, Wirtschaft und Gesellschaft auslösen könnten. Als problematisch wird hier vor allem die Desinformation gesehen, die durch Deepfakes verbreitet wird. Für die Wirtschaft erkennt die Studie dagegen nicht nur Risiken, sondern auch Chancen. Einige Anwendungen gelten zwar als bedenklich, für andere Bereiche könnten Deepfakes auch eine kreative und ökonomische Bereicherung darstellen. Trotzdem bleiben Gefahren und Risiken, wie Industriespionage oder Identitätsverlust. So gibt es inzwischen etwa mehrere KI-basierte Technologien, die Videos in Gesichtern täuschend echt manipulieren können. Solche Manipulationen haben entweder das Ziel, die Mimik einer Person zu kontrollieren, was auch als Face Reenactment bekannt ist. Oder Gesichter in einem Video werden getauscht, was man Face Swapping nennt. Häufig werden auch neue Pseudo-Identitäten geschaffen.
Wichtig: Der richtige Umgang mit Deepfakes
Murat Karaboga , der für die Studie am Fraunhofer ISI verantwortlich zeichnet, nennt vier Handlungsempfehlungen zum Umgang mit Deepfakes:
- Plattformen müssen stärker staatlich reguliert werden, rechtswidrige Inhalte müssen zuverlässig gemeldet werden.
- Es sollte mehr an die Selbstverantwortung der BürgerInnen apelliert werden. Es wird noch wichtiger, die Medienkompetenz durch breit aufgestellte Bildungsangebote zu verbessern.
- Organisationen müssen rund um das Stichwort Deepfakes besser geschult werden. Wichtige Punkte sind hier präventive Maßnahmen und Risikoabschätzung.
- journalistische Standards zur Aufklärung von Deepfakes sollten verbessert werden.