Trusted Partner Program

Schwere Vorwürfe: Meta nahm gefährliche Online-Hetze nicht ernst genug

(c) Meta
(c) Meta
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Einem Bericht von Netzpolitik.org zufolge versagt Meta noch immer beim Vorgehen gegen höchst schädliche Inhalte bei Facebook und Instagram. Schon im letzten Jahr sorgte ein Artikel von Amnesty International diesbezüglich für Kopfschütteln.  Algorithmen des Facebook-Mutterkonzerns Meta hätten im Jahr 2017 als Verstärker für Hassrede gegen Rohingya wesentlich zu den Gräueltaten gegen die ethnische Minderheit beigetragen. In einem neueren Fall, der von Internews untersucht wurde, ist ein hetzerischer Social Media-Beitrag scheinbar erst dann gelöscht worden, nachdem eine Person getötet wurde. Zukünftig wird Meta sich solche Horrorszenarien, zumindest in der EU, nicht mehr erlauben können.

Trusted Partner Program: Gut gemeint, schlecht umgesetzt

Dass es bei Meinungsverschiedenheiten in den Kommentarspalten bei Facebook und Instagram oftmals sehr barbarisch zugeht, ist kein Geheimnis. Neben Beschimpfungen kann es auch zu Fake News oder gar gefährlichen Hetzkampagnen kommen. Meta hat 2013 aus diesem Grund das Trusted Partner Program ins Leben gerufen und wollte so Moderationslücken schließen. Insbesondere in Ländern außerhalb der USA und Europas fehlt es nämlich an Moderator:innen, die die Sprache und die politische Lage des Landes gut verstehen.

Über 400 NGOs in 113 Ländern sind am Programm beteiligt, darunter Tech4Peace im Irak, Defy Hate Now im Südsudan und Internews, das international tätig ist. NGOs können also weltweit Alarm schlagen, wenn sie bei Facebook oder Instagram Hass und Hetze bemerken. Konzernmutter Meta möchte alle Hinweise dabei selbst bearbeiten.

Online-Hetze bereits mitverantwortlich für Vertreibung

Das Trusted Partner Program soll Meta dabei unterstützen erneute Social Media Hetzkampagnen zu verhindern, die lebensbedrohlich ausgehen könnten, so wie die Verbrechen an der muslimischen Minderheit der Rohingya in Myanmar. Denn laut einem Bericht von Amnesty International haben die Algorithmen von Facebook damals wesentlich zu den Gräueltaten des Militärs gegen die Rohingya in Myanmar  im Jahr 2017 beigetragen. Amnesty International hat sogar Entschädigungszahlungen gefordert.

Zahlreiche NGOs gelten derzeit als Trusted Partner aber offenbar funktioniert das System noch immer nur mangelhaft. Aus einem Bericht der gemeinnützigen Nichtregierungsorganisation Internews geht hervor, dass der Konzern ernsten Hinweisen nicht konsequent nachgeht. Die Antwortzeit auf gemeldete Vorfälle sei unfassbar unregelmäßig. Meta reagiere oft erst nach mehreren Wochen oder sogar Monaten, in manchen Fällen solle überhaupt keine Antwort erfolgt sein – selbst bei Meldungen, die zeitkritisch sind, wie beispielsweise Aufrufe zur Gewalt.

Entfernung eines Beitrags erst nach dem Tod einer Person

Internews hat für den Bericht 24 der insgesamt 465 Trusted Partner befragt. Er soll die heikle Situation anhand einiger Beispiele verdeutlichen. So habe eine Person auf die Verbreitung von falschen Informationen hingewiesen, darunter ein manipuliertes Bild, das irrtümlich die Zugehörigkeit einer Person zur Terrorgruppe Islamischer Staat suggerierte. Meta habe zwar auf die Meldung reagiert, die Inhalte jedoch gemäß den Regeln für akzeptabel gehalten. Erst nachdem ein Mensch getötet wurde, habe das Moderationsteam die Beiträge entfernt.

Das Unternehmen wurde um eine Stellungnahme im Rahmen des Berichts gebeten. Das Unternehmen räumte ein, dass es zuletzt nachlässig war. Als Hauptgrund führte Meta die Auswirkungen der Pandemie an. In den Jahren 2019 bis 2021 seien die Moderationsteams aufgrund von „begrenzten Kapazitäten“ eingeschränkt gewesen.

EU will verantwortungsloses Verhalten bremsen

Zumindest in der EU wird sich Meta Ähnliches nicht mehr erlauben können. Im Moment ist die Kooperation mit den sogenannten Trusted Partner für Anbieter wie Facebook freiwillig. Allerdings fordert der Digital Services Act (DSA) fixe Expert:innen für spezielle Kanäle. Ihre Meldungen müssen laut dem Gesetz in Zukunft „vorrangig behandelt und unverzüglich bearbeitet“ werden.

Da Facebook und Instagram als „Very Large Online Platforms“ (VLOP) eingestuft werden, müsste Meta die DSA-Vorgaben eigentlich schon Ende August erfüllen. Die Hinweisgeber:innen werden jedoch von den Aufsichtsbehörden der EU-Länder ernannt, den sogenannten „Digital Services Coordinators“. Diese Koordinierungsstellen existieren aber noch nicht. EU-Mitgliedsstaaten haben bis Februar des kommenden Jahres Zeit dafür. Die betroffenen VLOPs sollten sich daher am besten schon jetzt darauf vorbereiten.

 

Trusted Accounts: Startup bekämpft Online-Trolle mit Konto-Verifizierung

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2025

Österreichs größter Startup-Wettbewerb - 13 Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen