Facebook: Artificial Intelligence soll gefährlichen Content aus dem Netzwerk räumen
Propaganda, Lügen, Hassrede, Spam, Terror-Inhalte, Gewalt: Es ist nicht nur der Umgang mit Nutzerdaten, die Facebook in den letzten Jahren stark in die Kritik gebracht hat, sondern auch gefährliche Inhalte, die tagtäglich in dem Social Network veröffentlicht wird. Der schockierende Negativ-Höhepunkt war der Live-Stream, den der Amokläufer von Christchurch von dem Massaker veröffentlichte – und von den Systemen der US-Firma nicht erkannt und blockiert wurde. Erst, als die neuseeländische Polizei den Stream bei Facebook meldete, wurde er gelöscht.
Milliarden schädliche Inhalte
Mike Schroepfer, CTO von Facebook, weiß dass Facebook besser heute als morgen intelligente Technologien braucht, die solche gefährlichen Inhalte erkennen können, bevor sie von Millionen Menschen gesehen werden. Zahlen aus dem dritten Quartal 2018 zeigen, wie enorm das Problem ist. In drei Monaten (Juli bis September) musste Facebook Schroepfer zufolge mehr als 700 Millionen Fake-Accounts, mehr als eine Milliarde Spam-Nachrichten und dutzende Millionen Inhalte, die Gewalt beinhalten, löschen.
Bis dato ist Facebook bei der Löschung solcher Inhalte auf Menschen angewiesen. In Indien oder auf den Philippinen, aber auch in Deutschland oder den USA sind Heerscharen von Clickworkern damit beschäftigt, den Content-Müll aus dem Netzwerk zu fischen. Diese „Cleaner“ bekommen pro Arbeitstag bis zu 25.000 gemeldete Inhalte auf den Schirm, in Sekunden müssen sie entscheiden, ob gelöscht werden muss oder nicht. Der Dokumentarfilm „The Cleaners“ zeigt die Arbeit der Content-Moderatoren.
Diese Arbeit, die für eine enorme psychische Belastung sorgt, soll in Zukunft vor allem Künstliche Intelligenz erledigen. „Unser Ziel ist es, unseren Systemen zu helfen, Inhalte mit so wenig menschlicher Überprüfung wie möglich zu verstehen“, heißt es dazu seitens Facebook auf der hauseigenen Entwickler-Konferenz F8, die diese Woche in San Jose in Kalifornien stattfindet.
Text, Bild, Video
Damit keine Zweifel aufkommen: Die Daten, mit denen die Facebook-AI trainiert wird, stammen natürlich von den Nutzern selbst. Facebook-Forschern zufolge werden „Milliarden öffentliche Fotos“ (z.B. auch von Instagram) dazu genutzt, um den Systemen beizubringen, was veröffentlicht werden darf und was nicht. Damit die AI versteht, was auf den Bildern zu sehen ist, werden auch die Hashtags analysiert. Bei Sprache (also Text-Postings) wiederum steht Facebook vor der riesigen Herausforderung, etwa Hassrede in 6.500 weltweit gesprochenen Sprachen erkennen zu müssen – derzeit arbeiten die Facebook-Forscher gerade mal mit 93 Sprachen.
Bei Videos, so die Facebook-Forscher, hätte die AI bereits eine Treffergenauigkeit von 82,8 Prozent bei der Erkennung von 400 verschiedenen menschlichen Handlungen. Das ist bei weitem nicht genug – eines von fünf Videos wird demnach nicht richtig erkannt, und es gibt bei weitem mehr als 400 Tätigkeiten, die Menschen machen können. „Aufgrund der Schwierigkeiten steckt das Video-Verständnis noch in den Kinderschuhen“, geben die Facebook-Forscher zu. Fraglich ist auch, wo AI-Systeme überhaupt greifen – denn wenn Content verschlüsselt versendet wird, könnte die Künstliche Intelligenz es schwer haben. Und wenn Videos live auf Facebook veröffentlicht wird, dann müssen die Systeme binnen Sekunden reagieren können.