Täglich sorgen tausende Content-ModeratorInnen dafür, dass verstörende Inhalte oder Hasspostings von „Facebook“ gelöscht werden. Gewürdigt werden sie dafür kaum. SUMO sprach mit Chris Gray und Cori Crider.
„Facebook“ verzeichnet Milliarden an UserInnen. Selbst wenn nur ein Bruchteil davon „unangemessene“ Inhalte verbreitet, wer sorgt eigentlich dafür, dass unser Newsfeed „sauber“ bleibt? Was passiert mit Posts, nachdem wir sie gemeldet haben? Wer ist dafür zuständig, dass verstörende Inhalte gelöscht werden? Die Antwort: Content-ModeratorInnen. Was wie ein ehrenvoller Beruf klingt, wird von Chris Gray, einem ehemaligen Content-Moderator, so beschrieben: „Im Grunde genommen räumen wir den Müll im Internet weg. Wir schauen uns all das schlechte Zeug an, damit ihr das nicht machen müsst. Wenn ihr etwas seht, das euch stört und ihr klickt ‚Melden‘, dann landet es auf meinem Tisch und ich muss entscheiden, ob es okay ist, oder ob es gelöscht werden muss.“ Soweit also die Jobbeschreibung. Aber was bedeutet das nun für die ModeratorInnen?
Schwierige Arbeit zu schlechten Bedingungen – „a little overdramatic“?
Täglich schauen sie Hunderte Posts an, in denen Terror, Mord, Vergewaltigung, Kindespornografie und anderes zu sehen ist. Abgewechselt wird dieser Content mit rassistischen Memes oder Nacktbildern. 30 Sekunden pro Item, um zu entscheiden, ob das Video online bleiben darf oder nicht. Das sind 30 Sekunden, um Meinungsfreiheit und Menschenwürde in Betracht zu ziehen. 30 Sekunden, um das Recht des Einzelnen gegen öffentliches Interesse abzuwägen. 30 Sekunden, um einzuordnen, in welche Sektion der sich immer wieder ändernden Guidelines von „Facebook“ der Content fällt. Braucht man für ein Ticket länger als 30 Sekunden, bleibt weniger Zeit für die anderen Posts. Zeit, um das, was man gesehen hat, zu verarbeiten, bleibt keine. In einer Stellungnahme in einem Blogpost auf about.fb.com von Ellen Silver, einer Vizepräsidentin der Geschäftsführung von „Facebook“, heißt es: „Wir ermutigen die Gutachterinnen und Gutachter, sich so viel Zeit zu nehmen, wie sie brauchen.“ Zeitvorgaben seien nur ungefähre Richtlinien, wie lang man brauchen könnte. Und dennoch haben die ArbeiterInnen einen Score zu erfüllen. In manchen Büros ist der Arbeitstag bis auf die Sekunde durchgetaktet. Schlechte Bezahlung – meist nur knapp über der Mindestverdienstgrenze – kommt hinzu. Content-ModeratorInnen müssen eine Verschwiegenheitserklärung unterschreiben. Familie und FreundInnen wissen nichts über ihre Arbeit. Zu Hause darf kein Wort darüber verloren werden, dass man im Büro ZeugIn eines Mordes wurde. Und das nicht nur einmal. ModeratorInnen, die sich über die schlechten Arbeitsbedingungen und psychische Probleme, nachdem sie diesen Content tagein, tagaus gesehen haben, beschweren, nennt Mark Zuckerberg „a little overdramatic“.
Die „geheime Armee“
„Facebooks geheime Armee“, wie die Content-ModeratorInnen manchmal genannt werden, besteht aus Tausenden MitarbeiterInnen weltweit. Die Zahlenangaben variieren, je nachdem wofür der Konzern sich gerade selbst lobt oder rechtfertigt. Wenn „Facebook“ unter Druck gerät, Angaben zu machen, was gegen Terrorismus, Hatespeech etc. auf der Plattform unternommen wird, wird betont, wie viele Content-ModeratorInnen es gibt. Wenn dann auf der anderen Seite aber Fragen zu deren Arbeitsbedingungen gestellt werden, reagiere „Facebook“ viel zugeknöpfter hinsichtlich der Anzahl an Menschen, die diesen Job machen, meint Cori Crider von der NGO Foxglove. Eine weit verbreitete Zahl ist 15.000, aber viele bleiben weniger als ein Jahr. Chris Gray schätzt daher, dass es 30.000 – 50.000 ehemalige und derzeitige Content-ModeratorInnen gibt. Und das nur für „Facebook“. Hinzu kommen „YouTube“, „TikTok“ und andere soziale Netzwerke. Die meisten Content-ModeratorInnen arbeiten für Drittfirmen und sind nicht bei „Facebook“ selbst angestellt. So auch Chris Gray. Er war bei der Drittfirma CPL.
„Facebook“ betont immer wieder, dass diese ArbeiterInnen psychische Unterstützung erhalten. Versprochen werden Screenings, ob man mental für diesen Job geeignet ist und ausreichend Training bevor man mit dem Job beginnt wie auch während der Arbeit. Gray kann nichts davon bestätigen. Alles was ihm geboten wurde, war eine achttägige Schulung, bevor er anfing als Content-Moderator zu arbeiten. Die von „Facebook“ versprochene psychische Gesundheitsförderung habe hauptsächlich in Einladungen zu Yoga und Malstunden bestanden, aber wie solle man sich dafür Zeit nehmen, wenn man seinen Score erreichen muss. Cori Crider fügt hinzu, dass nicht nur die versprochenen Screenings und die psychische Unterstützung fehlen. Bevor jemand den Job beginnt, werde ihm gegenüber zusätzlich die wahre Natur des Content oft verschwiegen. Auch Gray meint, er wusste zwar, worum es ging, als er anfing, für CPL zu arbeiten, aber „wenn dir jemand sagt, du wirst Leichen sehen, verstehst du nicht, was das bedeutet, wenn du das noch nicht erfahren hast“, sagt er.
Psychische Belastungen durch den Job
Viele halten nicht länger als ein paar Monate durch und es gibt eine große Zahl an ModeratorInnen, denen (sekundäre) Posttraumatische Belastungsstörung (PTBS), eine psychische Reaktion auf traumatisierende Ereignisse, diagnostiziert wurde. Sekundäre PTBS kann man entwickeln, wenn einem die traumatische Situation nicht selbst widerfahren ist, man sie aber durch Erzählungen, Bilder etc. miterlebt hat. Die Symptome sind oftmals die gleichen: Flashbacks, Panikattacken, Schlafstörungen, Konzentrationsschwäche u.v.m. Auch Chris Gray wurde PTBS diagnostiziert. Videos, die ihm besonders in Erinnerung geblieben sind: Eine Frau, die zu Tode gesteinigt wird. MigrantInnen, die mit geschmolzenem Metall gefoltert werden. Hunde, die lebendig gekocht werden. Nun verklagt Gray „Facebook“ und hofft, auf diesem Wege eine Entschädigung für das, was er durchmachen musste, zu bekommen.
Folgen des Jobs sind aber nicht nur PTBS. Was macht es mit jemanden, wenn sie bzw. er tagein, tagaus mit Hatespeech, Lügen und Verschwörungstheorien konfrontiert wird? Mit der Zeit kann der Content die persönlichen und politischen Einstellungen beeinflussen. Manche haben so oft Verschwörungstheorien zu Gesicht bekommen, dass diese für sie mit der Zeit Sinn ergeben und sie nach und nach beginnen, selbst daran zu glauben.
Mark Zuckerberg macht Versprechungen, dass Künstliche Intelligenz (KI) die Lösung sein wird und den Job bald übernehmen wird können. Chris Gray meint allerdings, dass KI nicht in absehbarer Zeit dazu in der Lage sein werde, menschliche ModeratorInnen zu ersetzen. Wie soll Künstliche Intelligenz erkennen, ob etwas sarkastisch oder ernst gemeint ist? „Es gibt zu viele Nuancen, zu viele feine Details.“, sagt er. Außerdem gebe es eine Diskrepanz zwischen den langen Trainingszeiten für KI und den sich schnell ändernden Guidelines.
Content Moderation vs. Zensur
„Facebooks geheime Armee“ besteht also aus Tausenden Menschen, die teils psychische Probleme von ihrem Job davontragen und dazu verpflichtet sind, blind den Guidelines zu folgen. Durch letztere Maßnahme sollen persönliche Einflüsse auf Entscheidungen vermieden werden. „New York Times“ veröffentlichte 2018 Auszüge aus den (damaligen) Guidelines, die der Zeitung zugespielt wurden. Es wird klar, dass sie Versuche sind, komplexe Themen in einfache Ja-oder-Nein-Regeln zu transformieren. Oftmals müssen ModeratorInnen Content, von dem sie fürchten, dass er zu Gewalt führen wird, online lassen, während mehr oder weniger „harmlose“ Inhalte gelöscht werden müssen. Es gibt viele verschiedene, tausende Seiten umfassende und als unübersichtlich beschriebene Quellen, die als Guidelines für die Content-ModeratorInnen gelten und sie ändern sich ständig.
„Es gibt eine Überschneidung zwischen Zensur und Content Moderation“, meint Chris Gray. „Facebook“ mischt sich hier in teils sensible politische Angelegenheiten weltweit ein und beeinflusst diese maßgeblich. Eines der extremsten Beispiele: Hasspostings auf „Facebook“ spielten eine wesentliche Rolle in der Krise in Myanmar. Über das Netzwerk konnte sich der Hass gegen die Rohingya schnell verbreiten. Die Guidelines, die regelten, wie mit Hasspostings in Myanmar umgegangen werden soll, waren widersprüchlich, ist in der „New York Times“ zu lesen. Zusätzlich dürften nicht genügend Content-ModeratorInnen zur Verfügung gestanden haben, die die Sprache sprechen. Viele Postings blieben somit online.
Auf der anderen Seite aber werden täglich Videos gelöscht, die wichtiges Beweismaterial für Konflikte etwa in Syrien sind. Es gibt NGOs, die es sich zur Aufgabe gemacht haben, Fotos und Videos aus Krisenregionen von Sozialen Medien herunterzuladen, denn sind diese einmal gelöscht, ist es so gut wie unmöglich, wieder an sie heranzukommen. In der Dokumentation „The Cleaners“ aus dem Jahr 2018 wird ein Mitarbeiter einer solchen Organisation – Airwars – zitiert: „Ohne unsere Arbeit hätten die Armeen oder Regierungen einen Freifahrtsschein. Es gäbe niemanden, der ihr Tun in Frage stellt.“ Auch Gray ist sich dieser Problematik bewusst: „Nur weil man das Material nicht öffentlich zeigen will, heißt das, man soll das Beweismaterial verstecken? Wollen wir so tun, als ob es nicht passiert?“
Im Bemühen, die selbst geschaffenen Probleme zu beheben, ist „Facebook“ – ein profit-orientiertes und von Regierungen beeinflussbares Unternehmen – zu einem der wohl mächtigsten politischen Regulatoren weltweit geworden. Die „Drecksarbeit“ wird dabei an eine „Armee“ an Content-ModeratorInnen, die für ihre Arbeit kaum Anerkennung bekommen, outgesourct.
Infobox:
Über Chris Gray und Cori Crider
Chris Gray arbeitete von Juni 2017 bis März 2018 als Content-Moderator. Er war bei der Drittfirma CPL beschäftigt. Als Folge des Jobs wurde ihm Posttraumatische Belastungsstörung diagnostiziert. Ein Jahr später entschied er, die Verschwiegenheitserklärung zu brechen und „Facebook“ sowie CPL zu klagen. Warum er sich dafür entschieden habe? „Ich bin einfach nur wütend. Es ist ein sehr anspruchsvoller Job und wir hatten immer das Gefühl, dass wir keinen Respekt bekommen, dass wir nicht wichtig sind. Jetzt gibt es immer mehr Leute, die sich darüber beschweren, dass sie durch die Arbeit verletzt oder beschädigt wurden, ich bin einer davon. Der einzige Weg, dies zu lösen, ist, ‚Facebook‘ zu zwingen, Verantwortung zu übernehmen.“ Gray erwartet sich auf der einen Seite zwar Schadenersatz, auf der anderen Seite ist es aber ebenso Ziel der Klage, das Problem einer breiten Öffentlichkeit bekannt zu machen und „Facebook“ dazu zu zwingen, mehr Informationen über die Arbeitsbedingungen offenzulegen und diese in großem Stil zu ändern. Gray wird bei der Klage von der NGO Foxglove, die sich für Fairness in der Technologieindustrie einsetzt, unterstützt, denn „man kann keine fairen sozialen Medien haben, wenn die Arbeiterinnen und Arbeiter, von denen wir abhängig sind, die für die Sicherheit sorgen, ausgebeutet und durch ihre Arbeitsbedingungen psychisch krank gemacht werden“, sagt Cori Crider, eine Rechtsanwältin bei Foxglove.
Von Sophie-Luise Karson