ChatGPT: Billigarbeiter:innen filterten schädliche Inhalte für die gehypte AI
Schöne neue AI-Welt und ihre dunklen Seiten: Während die generative AI von OpenAI, ChatGPT, derzeit allerortens als größte Revolution seit dem iPhone gefeiert wird, kommen nun die Schattenseiten ans Tageslicht. Denn ab November 2021 hat der Entwickler OpenAI mit einer Outsourcing-Firma namens Sama aus San Francisco zusammen gearbeitet, die wiederum Telearbeiter:innen in Kenia zu Dumping-Löhnen damit beschäftigt hat, Hassrede und andere toxische Inhalte zu filtern, die in das Tool eingegeben wurden.
Das berichtet aktuell das Time-Magazin unter Berufung auf zahlreiche Dokumente und Interviews mit Arbeiter:innen, die diese Zusammenarbeit bestätigen. Auch seitens OpenAI, das Microsoft in einer neuen Finanzierungsrunde mit 29 Milliarden Dollar bewerten will, hat die Auslagerung der mühseligen Handarbeit bereits zugegeben. Den Arbeiter:innen in Kenia wurden je nach ihrer Performance zwischen 1,32 und 2 Dollar pro Stunde dafür bezahlt, um schädliche Inhalte aus den Datensets zu entfernen, mit denen ChatGPT ab 2021 zum Lernen gefüttert wurde.
„Die Klassifizierung und Filterung von schädlichen Texten und Bildern ist ein notwendiger Schritt, um die Menge an gewalttätigen und sexuellen Inhalten in den Trainingsdaten zu minimieren und Werkzeuge zu entwickeln, die schädliche Inhalte erkennen können“, heißt es seitens OpenAI in einer offiziellen Stellungnahme. Anstatt aber die eigenen, angeblich so smarten Software-Systeme die Arbeit erledigen zu lassen, setzte man auf Outsourcing in ein Billiglohnland.
Outsourcing-Partner Sama stornierte OpenAI-Auftrag
Konkret mussten die von Sama beauftragten Telearbeiter:innen pro Tag zwischen 150 und 200 Textpassagen lesen und dort schwierige Inhalte markieren. Ein Mitarbeiter sagte gegenüber dem Magazin, dass er etwa eine Textstelle filterte, in der beschrieben wird, wie ein Mann Sex mit einem Hund in Anwesenheit eines Kindes hat. Sama, also der Vermittler für die Outsourcing-Arbeit, bezeichnet sich selbst offiziell als „ethische AI Firma“ und will den Arbeiter:innen in Kenia Zugang zu professionell ausgebildeten und zugelassenen Therapeuten für psychische Gesundheit gegeben haben. Gegenüber Time meinten einige der dortigen Arbeiter:innen, dass es nur Gruppen-, nicht aber die Möglichkeit zu Einzelgesprächen gegeben hätte.
Besonders delikat an der Sache ist auch, dass Sama dann schließlich den Vertrag mit OpenAI vorzeitig beendete. Dabei ging es offenbar um den Auftrag, teilweise illegale Bilder von sexuellen Straftaten und Gewalt zu sammeln und zu markieren. Sama lieferte einen Satz von etwa 1.400 Bildern, beendete dann aber die Zusammenarbeit mit OpenAI. Die Bilder, sollen aber nicht für das Training von ChatGPT, sondern für andere Zwecke eingesetzt werden. Diese Bilder waren mit Markierungen wie C4 für Kindesmissbrauch, C3 für Vergewaltigung oder V3 für Tötung versehen.
OpenAI ist kein Einzelfall
„Das Team in Ostafrika äußerte gegenüber unseren Führungskräften sofort Bedenken. Sama beendete sofort das Pilotprojekt zur Bildklassifizierung und kündigte an, dass wir alle verbleibenden [Projekte] mit OpenAI einstellen würden“, heißt es dazu seitens Sama. Laut OpenAI wiederum sei „Misskommunikation“ schuld daran, dass überhaupt Bilder in der C4-Kategorie bearbeitet wurden, man hätte das nicht angefordert und die Kategorie sei auch nicht notwendig, um ChatPT oder andere Systeme zu trainieren. Der Outsorucing-Anbieter Sama hat übrigens eine Vorgeschichte: 2022 wurde bekannt, dass Sama Content-Moderator:innen für Facebook beschäftigte. Diese mussten Bilder von Hinrichtungen, Vergewaltigungen und Kindesmissbrauch für weniger als 1,50 Dollar pro Stunde sichten. Generell ist bekannt, dass IT-Riesen zur Content-Moderation in den vergangenen Jahren oft und gerne auf Arbeitskräfte in Niedriglohnländern zurückgriffen.
„Trotz der grundlegenden Rolle, die diese Fachleute für die Datenanreicherung spielen, zeigen immer mehr Untersuchungen die prekären Arbeitsbedingungen, denen diese Arbeitnehmer:innen ausgesetzt sind“, heißt es aktuell seitens Partnership on AI, ein Zusammenschluss von KI-Organisationen, dem OpenAI angehört, zu der Causa. „Dies könnte das Ergebnis der Bemühungen sein, die Abhängigkeit der KI von dieser großen Zahl von Arbeitskräften zu verbergen, wenn die Effizienzgewinne der Technologie gefeiert werden. Aus den Augen, aus dem Sinn“.