Studie

„Deepfake-Geographie“: Forscher warnen vor falschen Satellitenbildern

Symbolbild: Warnung vor Deepfake-Satellitenbildern © PIRO4D / Pixabay
Symbolbild: Warnung vor Deepfake-Satellitenbildern © PIRO4D / Pixabay
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Deepfakes gelten schon lange als besonders gefährliches Manipulationswerkzeug im Internet. Durch Künstliche Intelligenz veränderte Videos und Bilder können oft täuschend echt aussehen. Nicht nur Gesichter können gefälscht werden, sondern auch Satellitenbilder. Forscher an der University of Washington haben in einer neuen Studie festgestellt, dass jetzt schon extrem real aussehende Fake-Satellitenbilder möglich sind. Unter anderem im militärischen Bereich könnte die sogenannte „Deepfake-Geographie“ zu einer mächtigen Waffe werden.

Diese App produziert realistische Deepfake-Videos in Sekunden und ist in China ein viraler Hit

„Technologie gibt es bereits“

Das Forschungsteam hat gewöhnliche Deepfake-Methoden eingesetzt, um Satellitenansichten der drei Städte Seattle, Tacoma und Peking zu vereinen. Daraus entstand ein neues, authentisch wirkendes Stadtbild. „Hierbei handelt es sich nicht nur um ‚Photoshopping‘, die Daten sind extrem realistisch. Die Technologie dafür gibt es bereits“, warnt Studienleiter Bo Zhao. Mit seinen Kollegen hat der Geographie-Assistenzprofessor versucht, eine Methode zur Erkennung solcher manipulativen Bilder zu finden.

Satelliten-Deepfake © Zhao et al / Cartography and Geographic Information Science
Satelliten-Deepfake © Zhao et al / Cartography and Geographic Information Science

 

 

 

 

 

 

 

 

 

 

Ein wichtiges Detail bei Deepfake-Geographie seien die Schattenwürfe von Gebäuden. Diese würden sich bei Verschmelzungen von echten Bildern oft an unpassenden Stellen zeigen. Beispielsweise könnten sie bei zu kleinen Häusern auftauchen. Auch Farben von Grünflächen könnten falsche Bilder identifizieren. Für das menschliche Auge sei das allerdings oft zu schwer. Deswegen sei ein eigener Algorithmus für die Entlarvung der Deepfakes nötig.

Der große Ruf nach Gesetzen für Künstliche Intelligenz

Gefahr bei Marine-Überwachung

Laut den Forschern könnten selbst falsche Satellitenansichten gefährliche Fehlinformationen verbreiten. Es sei so unter anderem möglich, Katastrophen wie einen Häuserbrand zu simulieren. Besonders bedenklich sei diese Technologie im militärischen Bereich. Vor allem bei der Überwachung von möglicherweise feindlichen Marine-Schiffen kommen häufig Satelliten zum Einsatz. Realistische Fälschungen könnten bei solchen Observationen eine Gefahr darstellen.

Bo Zhao zufolge zeigt die Studie außerdem, dass Satellitenbilder nicht unfehlbar sind. „Fotos und andere raumbezogene Aufklärungsmethoden können nicht absolut verlässlich sein. Wir wollen in Zukunft mehr Gegenmaßnahmen wie Faktenchecks einsetzen“, so der Studienleiter. Geographen bräuchten ihre eigenen Tools, um authentische Daten aus den falschen Bildern herausfiltern zu können.

 

 

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen