Hintergrund

Prebunking als Geheimwaffe gegen GenAI-Fakes im Superwahljahr 2024

Wahlurne als Weltkugel. © Dall-E
Wahlurne als Weltkugel. © Dall-E
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

2024 ist das Superwahljahr schlechthin – weltweit werden 3,5 Milliarden Menschen neue Regierungen oder neue Staatsoberhäupter in 70 Ländern wählen. Zwar kann man in Ländern wie Russland, dem Iran oder Venezuela kaum von freien Wahlen sprechen, und schon im Vorfeld ist klar, wie die Wahlen ausgehen werden; jedoch werden in den USA, der EU und Indien zusammen insgesamt mehr als 1,5 Milliarden Menschen wirklich die Wahl haben, und auch sehr bevölkerungsreiche Staaten wie Mexiko, Indonesien, Taiwan oder Südafrika schreiten zur Wahlurne.

Hier die wichtigsten Länder, in denen gewählt wird:

  • USA
  • EU
  • Taiwan
  • Ukraine
  • Indien
  • Großbritannien
  • Indonesien
  • Bangladesch
  • Mexiko
  • Südafrika
  • Österreich
  • Kongo
  • Finnland
  • Russland
  • Iran
  • Venezuela

Diese Wahlen drohen nun aber 2024 durch den missbräuchlichen Einsatz von generativer AI überschattet und beeinflusst zu werden. Noch nie zuvor war es so einfach, gefälschte Inhalte täuschend echt zu produzieren, um den politischen Gegner zu diffamieren, Fake News in die Welt zu setzen oder auch einfach sich selbst geschönt und überhöht darzustellen. In Kombination mit Social Media und schlecht moderierten Kanälen wie Telegram, X oder Substack sind diese Inhalte in Sekundenschnelle verbreitet – und die richtige Information bzw. die Warnung vor Fakes hat es dann schwer, noch zu den Wähler:innen durchzudringen.

Dass politische Parteien nicht vor dem Einsatz von GenAI zurückschrecken, haben die Republikaner in den USA schon bewiesen. In einem gegen US-Präsident Biden gerichteten Clip mit generierten Inhalten versuchen sie ein dystopisches Szenario der US-Zukunft zu zeichnen – einzig, um Biden in ein schlechtes Licht zu rücken.

Weitere bereits bekannte Einsätze von generativer AI in der Politik:

  • AI-generierte Stimme des indischen Premierministers Narendra Modi für Popsongs
  • gefälschte Tonspur im slowakischen Wahlkampf von Stimmen einer Parteivorsitzenden und einer Journalistin
  • AI-basierte Chatbots von deutschen Parteien wie der CSU bzw. bei Landtagswahlen in Bayern und Hessen, die Fragen beantworten sollen

Welche Mittel und Wege gibt es nun, dass AI-generierte Inhalte möglichst nicht den Weg auf die Displays der Wähler:innen schaffen, und im schlimmsten Fall zumindest als solche erkennt werden können? Dazu gibt es mehrere Ansätze, die aber nicht 100-prozentigen Schutz vor Wahlmanipulationen bieten.

Google: Manipulierte Bilder beeinflussen Wahrnehmung von KI und Mensch

Kennzeichnung und Erkennung von GenAI schwierig

Es ist ein frommer Wunsch der Behörden in den USA und der EU, dass Anwender:innen von ChatGPT, Midjourney, Runway und Co. künftig auch (z.B. mittels Logo oder Wasserzeichen) dazuschreiben, dass sie Texte, Bilder, Videos oder Tonspuren mittels KI-Tool erstellt haben. Meta etwa will 2024 politische Werbetreibende dazu verpflichten, AI-Content zu kennzeichnen.

Doch zum einen treten diese Regeln oft erst nach 2024 in Kraft, und zum anderen beruhen sie oft noch auf Freiwilligkeit; und zu glauben, dass sich mutwillige Wahl-Manipulatoren, die über Bot-Netzwerke versuchen, massenhaft gefälschten Content in Umlauf zu bringen, ans Kennzeichnen halten, wäre naiv.

„Ausgefeilte Wasserzeichen-Techniken wie SynthID und Adobe Firefly werden von durchschnittlichen Online-Nutzer:innen nicht häufig verwendet. Menschen neigen dazu, auf bestehende Vertrauens-Heuristiken (Likes und Kommentare) zurückzugreifen, anstatt nach Wasserzeichen oder Metadaten zu suchen, um die Wahrhaftigkeit eines Bildes zu verstehen. Wir müssen neue Vertrauensheuristiken entwickeln, die uns in der Ära von GenAI begleiten“, heißt es etwa seitens der MERL Tech Initiative, die sich mit Technologien und deren Einfluss auf Gesellschaft wissenschaftlich beschäftigt.

Technische Lösungen alleine würden nicht reichen, der Schwerpunkt müsse sich „hin zu klassischer Medienkompetenz und kritischem Denken“ verschieben, um die Täuschung durch GenAI zu bekämpfen. Denn: „Es ist ein Wettrüsten oder eine „Whack-a-Mole“-Situation – sobald Technologien und Techniken zur Bekämpfung von Desinformation entwickelt sind, haben die Urheber neue Wege gefunden, um der Entdeckung zu entgehen.“

Das betrifft schließlich auch AI-Tools, die durch AI generierten Content erkennen können sollen. Anfang 2023 gab es eine Welle solcher Dienste, die sich dann aber durch immer größere Verbesserungen der GenAI-Tools als untauglich herausstellten. OpenAI etwa stellte seinen hauseigenen „AI Text Classifier“ wieder ein – der schon zuvor nicht perfekt funktionierte, weil er in 9 % der Fälle einen von Menschen geschriebenen Text fälschlicherweise als von der KI geschrieben einstufte. Auch Botbusters.ai, das KI zur Erkennung von Fake-Profilen einsetzt, merkt an: „no model is 100% accurate.“

Von Social Media-Plattformen ist wenig zu erwarten

Auch wenn es manchmal Fakes in die Mainstream-Medien schaffen, das große Einfallstor sind Social-Media-Kanäle. Auf TikTok, Telegram, X und Co. können tausendfach und automatisiert Fake-Accounts erstellt werden, über die gefälschte Inhalte so verbreitet werden können, dass sie valide aussehen – Stichwort Vertrauensheuristiken wie Likes, Shares und Kommentare. Da geht s nicht bloß um den Content selbst, sondern auch das „soziale“ Drumherum. Ein Haufen Likes und Shares können den Anschein von Gewichtigkeit erzeugen, auch wenn der Inhalt selbst sich schnell als Fake herausstellt.

Hier wären nun die Anbieter der Social Networks und Messaging-Apps in der Pflicht, aber diese haben schon seit vielen Jahren das Problem, Fake-Accounts nicht einwandfrei erkennen zu können oder diese nur langsam zu löschen – also erst dann, wenn der Schaden schon angerichtet ist. Zudem tun sich Social-Media-Riesen historisch schwer mit ihren Bemühungen, Fake News zu erkennen und ihnen die Reichweite abzudrehen. Facebook/Meta etwa hat jahrelang mit externen Faktenprüfern wie der AFP zusammen gearbeitet, um die Sichtbarkeit von falschen oder irreführenden Inhalten zu senken. 2023 wurde dann aber eine neue Option für US-User eingeführt, die können seither solche entlarvten Fake-Beiträge wieder händisch mehr Reichweite geben. Bei Twitter/X ist seit der Musk-Übernahme das „Trust and Safety“-Personal stark reduziert worden: zuletzt eröffnete die EU-Kommission sogar ein Verfahren gegen X wegen der Verbreitung illegaler Inhalte und Misinformation zum Gaza-Krieg.

Prebunking als Geheimwaffe

Wo kann man also noch ansetzen, wenn es technisch und seitens der Plattformen schwer möglich ist, AI-Fakes zu stoppen? „Media Literacy“ wird da wieder zum Schlagwort der Stunde, allerdings bleibt für großangelegte Schulungen der Bevölkerung kaum Zeit. Einen interessanten Ansatz liefert aber das so genannte „Prebunking“, also das „Debunking“ von Falschmeldungen, bevor sie noch passieren. Das Jigsaw-Team von Google hat gemeinsam mit Medienexpert:innen der BBC und Universitäten Cambridge und Bristol den Prebunking-Guide für digitale Kanäle erstellt.

Anders als beim Debunking gegen Fake News, wo falsche Informationen aufgedeckt und richtig gestellt werden, geht es beim Prebunking um folgendes:

„Prebunking“ ist eine wissenschaftlich erforschte Kommunikationstechnik, die Nutzerinnen und Nutzern dabei hilft, künftige Versuche, sie mit falschen Informationen zu manipulieren, zu erkennen und zurückzuweisen. Dies trägt dazu bei, die Widerstandsfähigkeit der Gesellschaft gegen Desinformation und entsprechende Narrative und Manipulationstechniken zu erhöhen.

Den Author:innen des Guides zufolge sei Debunking gut und schön, würde aber wenige Menschen erreichen, weil sich „nur sehr wenige Zuschauer, die Fehlinformationen ausgesetzt waren, tatsächlich mit faktenprüfenden Beiträgen interagieren“. Bei Prebunking geht es nun darum, Menschen die Funktionsweise von Manipulationsversuchen und zu erwartende Argumente beizubringen, damit sie sie dann erkennen, wenn sie damit konfrontiert werden. Eine Prophylaxe gegen Fakes quasi.

Das Ganze beruht auf der Inokulationstheorie, die in den 1960er Jahren von dem Sozialpsychologen William McGuire entwickelt wurde, und mit der man ganz gute Ergebnisse gegen Missinformation erzielt hat. „Prebunking-Nachrichten bauen mentale Abwehrkräfte gegen Fehlinformationen, indem sie eine Warnung und Gegenargumente liefern, bevor die Menschen darauf stoßen“, heißt es seitens der Author:innen.

Wie sieht Prebunking nun in der Praxis aus? Google hat Prebunking-Videos zu irreführenden migrantenfeindlichen Narrativen 2023 in Polen, Tschechien und der Slowakei via YouTube, Facebook, Twitter und TikTok verbreitet, sie wurden dort über 38 Millionen Mal gesehen. „Das entspricht fast einem Drittel der Bevölkerung sowie der Mehrheit der Nutzer auf den Social-Media-Plattformen, auf denen die Kampagne lief (YouTube, Facebook, Twitter und TikTok). Nach dem Ansehen eines der Videos stieg der Anteil der Betrachter:innen, die diese Taktiken der Desinformation richtig erkannten, um bis zu acht Prozentpunkte“, heißt es seitens Google dazu. Hier ein Beispiel für ein Prebunking-Video:

Prebunking ist, das erkennt man schon an den genannten Zahlen, keine Superwaffe gegen AI-Fakes. Die Methode hat auch ihre Limitierungen, etwa was die Skalierung auf große Zielgruppen (hohe Werbekosten), die inhärenten Regeln von Plattformen (nicht überall funktionieren Kurzvideos gleich gut) oder über Zeit schwindende Lerneffekte angeht. Es ist auch kein Wundermittel gegen festgefahrene Meinungen, so hatte Prebunking etwa keine Auswirkungen auf Menschen mit rechtsextremen Überzeugungen. Auch hinsichtlich eher privater Kommunikationskanäle wie WhatsApp und Telegram gibt es noch nicht ausreichend Erkenntnisse, wie Prebunking dort funktionieren kann.

„Inokulationsmaßnahmen gibt es zwar schon seit den 1960er-Jahren gibt, während Prebunking-Maßnahmen im digitalen Zeitalter noch aktiv erforscht und entwickelt werde. Mehr Investitionen, Forschung und Tests sind erforderlich, um zu
zu verstehen, wie Prebunking auf globaler Ebene am besten funktioniert“, heißt es seitens der Forscher:innen. Die meiste Forschung zum Prebunking gebe es in den USA, UK und Europa. Es brauche noch mehr Forschung, um zu verstehen, wie Prebunking am besten in anderen Ländern der Welt angewandt und kontextualisiert werden könne.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen