Die Gefahren der „Deepfakes“
Wie Forscher versuchen, gefälschten Fotos und Videos auf die Spur zu kommen
Durch Künstliche Intelligenz (KI) gefälschte Fotos und Videos, sogenannte „Deepfakes", bergen enorme Gefahren und können sogar Auswirkungen auf die Politik haben. Forscher versuchen mit verschiedenen Techniken, solchen Fälschungen auf die Spur zu kommen.
Von Tanja Kipke
Windhoek
Während Künstliche Intelligenz (KI) in vielen Bereichen einen großen Mehrwert bringt, birgt sie auch enorme Gefahren. Vor allem im Hinblick auf gefälschte Videos und Fotos. Sogenannte „Deepfakes“ haben erst Anfang dieses Jahres großes Aufsehen erregt, als mehrere Fotos von Ex-US-Präsident Donald Trumps angeblicher Festnahme in den sozialen Medien kursierten (siehe Foto). Lange bevor Trump wirklich kurz festgenommen wurde, erstellten Privatnutzer mit KI Bildtools, wie „Midjourney“ oder „Stable Diffusion“, Fotos, die Trump zeigen, wie er von Polizeibeamten weggetragen wird. Dass die Bilder nicht echt sind, lässt sich – wenn überhaupt – nur durch genaues Betrachten erkennen. Damals hatten die Fotos eine Welle der Besorgnis ausgelöst, da es für den Menschen immer schwieriger wird, diese Fälschungen zu erkennen. Nicht nur Falschnachrichten können dadurch extrem leicht verbreitet werden, sie können auch zur Manipulation von zum Beispiel Wahlen eingesetzt werden.
Bei der Wahl in der Türkei kam es in diesem Jahr bereits zu einem Vorfall, den Experten als gefährlich im Hinblick auf Wahlmanipulation einstuften. Ein Video zeigte Kemal Kilicdaroglu, der größte Herausforderer von Präsident Recep Tayyip Erdogan bei der Wahl, wie er perfektes Englisch sprach. Es stellte sich aber heraus, dass das Video eine Fälschung war und mit Ton-KI bearbeitet wurde.
Forscher arbeiten derzeit bereits an verschiedenen Lösungen, um eine Fälschung leicht aufdecken zu können. Bei Videos kann beispielsweise der Puls des Menschen dabei helfen, um künstlich erstellte Personen zu identifizieren. So entwickelten Forschende bereits 2020 ein KI-basiertes System, das anhand subtiler Veränderungen im Gesicht und der Haut das Pulsieren des Blutes erkennen kann, berichtet das Wissensmagazin „Scinexx“. Hat ein im Video gezeigtes Gesicht dieses Signal, handelt es sich wahrscheinlich um einen echten Menschen, fehlt es hingegen, ist das Bild KI-generiert.
Wissenschaftler der Ruhr-Universität Bochum (RUB) stellten im Magazin eine weitere Möglichkeit vor, wie man „Deepfakes“ erkennen kann. Der Schlüssel liege demnach in den sogenannten Frequenzen. Dabei werden Hell-Dunkel-Unterschiede und Bilddetails als Summe vieler verschiedener Kosinus-Funktionen ausgedrückt. Natürliche Bilder würden größtenteils aus niederfrequenten Funktionen bestehen. Wenn der Mensch solche Bilder betrachtet, nimmt er die hohen Frequenzen meist nicht bewusst wahr. Ein Bild, bei dem hohe Frequenzen verändert wurden, sieht daher fast genauso aus wie das originale Bild. Die Technik lässt sich aber nicht so leicht blenden: „Bei hohen Frequenzen gibt es bei GAN-erzeugten Bildern charakteristische Abweichungen von echten Fotos“, erklärt Jonas Ricker dem Magazin. Die hohen Frequenzen kommen bei künstlich erzeugten Bildern übermäßig häufig vor.
Dieses Verfahren funktioniert vor allem bei Fotos, die durch bestimmte KI-Tools erstellt wurden, wie GAN. Bei anderen allerdings wieder weniger gut. Einen universellen Detektor gibt es noch nicht. Ricker denkt, die Lösung könnte darin liegen, in Zukunft echte Bilder zu verifizieren. „Das könnte man sich zum Beispiel mit kryptografischen Methoden vorstellen, die schon in der Kamera des Fotografen eingebaut sein müssten und jedes echte Bild unzweifelhaft überprüfbar macht.“
Enorme Gefahren
Die Gefahren liegen nicht nur in der Verbreitung von Falschnachrichten und Wahlmanipulation. Die Erkennung gefälschter Fotos hat auch strafrechtliche Relevanz, etwa wenn es um unfreiwillige Pornografie geht, bei der Gesichter von Personen auf die Körper von anderen montiert werden. „Ganz allgemein führt die Masse künstlich erzeugter Bilder zu einem Schwund an Vertrauen, auch in seriösen Medien“, sagt Ricker. „Letztlich wird jedes Bild dadurch verdächtig und auch verneinbar, sogar Bilder als Beweise vor Gericht.
Windhoek
Während Künstliche Intelligenz (KI) in vielen Bereichen einen großen Mehrwert bringt, birgt sie auch enorme Gefahren. Vor allem im Hinblick auf gefälschte Videos und Fotos. Sogenannte „Deepfakes“ haben erst Anfang dieses Jahres großes Aufsehen erregt, als mehrere Fotos von Ex-US-Präsident Donald Trumps angeblicher Festnahme in den sozialen Medien kursierten (siehe Foto). Lange bevor Trump wirklich kurz festgenommen wurde, erstellten Privatnutzer mit KI Bildtools, wie „Midjourney“ oder „Stable Diffusion“, Fotos, die Trump zeigen, wie er von Polizeibeamten weggetragen wird. Dass die Bilder nicht echt sind, lässt sich – wenn überhaupt – nur durch genaues Betrachten erkennen. Damals hatten die Fotos eine Welle der Besorgnis ausgelöst, da es für den Menschen immer schwieriger wird, diese Fälschungen zu erkennen. Nicht nur Falschnachrichten können dadurch extrem leicht verbreitet werden, sie können auch zur Manipulation von zum Beispiel Wahlen eingesetzt werden.
Bei der Wahl in der Türkei kam es in diesem Jahr bereits zu einem Vorfall, den Experten als gefährlich im Hinblick auf Wahlmanipulation einstuften. Ein Video zeigte Kemal Kilicdaroglu, der größte Herausforderer von Präsident Recep Tayyip Erdogan bei der Wahl, wie er perfektes Englisch sprach. Es stellte sich aber heraus, dass das Video eine Fälschung war und mit Ton-KI bearbeitet wurde.
Forscher arbeiten derzeit bereits an verschiedenen Lösungen, um eine Fälschung leicht aufdecken zu können. Bei Videos kann beispielsweise der Puls des Menschen dabei helfen, um künstlich erstellte Personen zu identifizieren. So entwickelten Forschende bereits 2020 ein KI-basiertes System, das anhand subtiler Veränderungen im Gesicht und der Haut das Pulsieren des Blutes erkennen kann, berichtet das Wissensmagazin „Scinexx“. Hat ein im Video gezeigtes Gesicht dieses Signal, handelt es sich wahrscheinlich um einen echten Menschen, fehlt es hingegen, ist das Bild KI-generiert.
Wissenschaftler der Ruhr-Universität Bochum (RUB) stellten im Magazin eine weitere Möglichkeit vor, wie man „Deepfakes“ erkennen kann. Der Schlüssel liege demnach in den sogenannten Frequenzen. Dabei werden Hell-Dunkel-Unterschiede und Bilddetails als Summe vieler verschiedener Kosinus-Funktionen ausgedrückt. Natürliche Bilder würden größtenteils aus niederfrequenten Funktionen bestehen. Wenn der Mensch solche Bilder betrachtet, nimmt er die hohen Frequenzen meist nicht bewusst wahr. Ein Bild, bei dem hohe Frequenzen verändert wurden, sieht daher fast genauso aus wie das originale Bild. Die Technik lässt sich aber nicht so leicht blenden: „Bei hohen Frequenzen gibt es bei GAN-erzeugten Bildern charakteristische Abweichungen von echten Fotos“, erklärt Jonas Ricker dem Magazin. Die hohen Frequenzen kommen bei künstlich erzeugten Bildern übermäßig häufig vor.
Dieses Verfahren funktioniert vor allem bei Fotos, die durch bestimmte KI-Tools erstellt wurden, wie GAN. Bei anderen allerdings wieder weniger gut. Einen universellen Detektor gibt es noch nicht. Ricker denkt, die Lösung könnte darin liegen, in Zukunft echte Bilder zu verifizieren. „Das könnte man sich zum Beispiel mit kryptografischen Methoden vorstellen, die schon in der Kamera des Fotografen eingebaut sein müssten und jedes echte Bild unzweifelhaft überprüfbar macht.“
Enorme Gefahren
Die Gefahren liegen nicht nur in der Verbreitung von Falschnachrichten und Wahlmanipulation. Die Erkennung gefälschter Fotos hat auch strafrechtliche Relevanz, etwa wenn es um unfreiwillige Pornografie geht, bei der Gesichter von Personen auf die Körper von anderen montiert werden. „Ganz allgemein führt die Masse künstlich erzeugter Bilder zu einem Schwund an Vertrauen, auch in seriösen Medien“, sagt Ricker. „Letztlich wird jedes Bild dadurch verdächtig und auch verneinbar, sogar Bilder als Beweise vor Gericht.
Kommentar
Allgemeine Zeitung
Zu diesem Artikel wurden keine Kommentare hinterlassen