OpenAI

ChatGPT: Billigarbeiter:innen filterten schädliche Inhalte für die gehypte AI

Hand auf Keyboard. © Quinton Coetzee auf Unsplash
Hand auf Keyboard. © Quinton Coetzee auf Unsplash
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Schöne neue AI-Welt und ihre dunklen Seiten: Während die generative AI von OpenAI, ChatGPT, derzeit allerortens als größte Revolution seit dem iPhone gefeiert wird, kommen nun die Schattenseiten ans Tageslicht. Denn ab November 2021 hat der Entwickler OpenAI mit einer Outsourcing-Firma namens Sama aus San Francisco zusammen gearbeitet, die wiederum Telearbeiter:innen in Kenia zu Dumping-Löhnen damit beschäftigt hat, Hassrede und andere toxische Inhalte zu filtern, die in das Tool eingegeben wurden.

Das berichtet aktuell das Time-Magazin unter Berufung auf zahlreiche Dokumente und Interviews mit Arbeiter:innen, die diese Zusammenarbeit bestätigen. Auch seitens OpenAI, das Microsoft in einer neuen Finanzierungsrunde mit 29 Milliarden Dollar bewerten will, hat die Auslagerung der mühseligen Handarbeit bereits zugegeben. Den Arbeiter:innen in Kenia wurden je nach ihrer Performance zwischen 1,32 und 2 Dollar pro Stunde dafür bezahlt, um schädliche Inhalte aus den Datensets zu entfernen, mit denen ChatGPT ab 2021 zum Lernen gefüttert wurde.

„Die Klassifizierung und Filterung von schädlichen Texten und Bildern ist ein notwendiger Schritt, um die Menge an gewalttätigen und sexuellen Inhalten in den Trainingsdaten zu minimieren und Werkzeuge zu entwickeln, die schädliche Inhalte erkennen können“, heißt es seitens OpenAI in einer offiziellen Stellungnahme. Anstatt aber die eigenen, angeblich so smarten Software-Systeme die Arbeit erledigen zu lassen, setzte man auf Outsourcing in ein Billiglohnland.

OpenAI: KI-Unternehmen startet Premium-Version von ChatGPT

Outsourcing-Partner Sama stornierte OpenAI-Auftrag

Konkret mussten die von Sama beauftragten Telearbeiter:innen pro Tag zwischen 150 und 200 Textpassagen lesen und dort schwierige Inhalte markieren. Ein Mitarbeiter sagte gegenüber dem Magazin, dass er etwa eine Textstelle filterte, in der beschrieben wird, wie ein Mann Sex mit einem Hund in Anwesenheit eines Kindes hat. Sama, also der Vermittler für die Outsourcing-Arbeit, bezeichnet sich selbst offiziell als „ethische AI Firma“ und will den Arbeiter:innen in Kenia Zugang zu professionell ausgebildeten und zugelassenen Therapeuten für psychische Gesundheit gegeben haben. Gegenüber Time meinten einige der dortigen Arbeiter:innen, dass es nur Gruppen-, nicht aber die Möglichkeit zu Einzelgesprächen gegeben hätte.

Besonders delikat an der Sache ist auch, dass Sama dann schließlich den Vertrag mit OpenAI vorzeitig beendete. Dabei ging es offenbar um den Auftrag, teilweise illegale Bilder von sexuellen Straftaten und Gewalt zu sammeln und zu markieren. Sama lieferte einen Satz von etwa 1.400 Bildern, beendete dann aber die Zusammenarbeit mit OpenAI. Die Bilder,  sollen aber nicht für das Training von ChatGPT, sondern für andere Zwecke eingesetzt werden. Diese Bilder waren mit Markierungen wie C4 für Kindesmissbrauch, C3 für Vergewaltigung oder V3 für Tötung versehen.

OpenAI ist kein Einzelfall

„Das Team in Ostafrika äußerte gegenüber unseren Führungskräften sofort Bedenken. Sama beendete sofort das Pilotprojekt zur Bildklassifizierung und kündigte an, dass wir alle verbleibenden [Projekte] mit OpenAI einstellen würden“, heißt es dazu seitens Sama. Laut OpenAI wiederum sei „Misskommunikation“ schuld daran, dass überhaupt Bilder in der C4-Kategorie bearbeitet wurden, man hätte das nicht angefordert und die Kategorie sei auch nicht notwendig, um ChatPT oder andere Systeme zu trainieren. Der Outsorucing-Anbieter Sama hat übrigens eine Vorgeschichte: 2022 wurde bekannt, dass Sama Content-Moderator:innen für Facebook beschäftigte. Diese mussten Bilder von Hinrichtungen, Vergewaltigungen und Kindesmissbrauch für weniger als 1,50 Dollar pro Stunde sichten. Generell ist bekannt, dass IT-Riesen zur Content-Moderation in den vergangenen Jahren oft und gerne auf  Arbeitskräfte in Niedriglohnländern zurückgriffen.

„Trotz der grundlegenden Rolle, die diese Fachleute für die Datenanreicherung spielen, zeigen immer mehr Untersuchungen die prekären Arbeitsbedingungen, denen diese Arbeitnehmer:innen ausgesetzt sind“, heißt es aktuell seitens Partnership on AI, ein Zusammenschluss von KI-Organisationen, dem OpenAI angehört, zu der Causa. „Dies könnte das Ergebnis der Bemühungen sein, die Abhängigkeit der KI von dieser großen Zahl von Arbeitskräften zu verbergen, wenn die Effizienzgewinne der Technologie gefeiert werden. Aus den Augen, aus dem Sinn“.

ChatGPT-Macher OpenAI soll fast 30 Mrd. Dollar wert sein

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen