Wereld, Economie, Samenleving -

Werken voor Facebook? Een psychologische hel

Met 2,13 miljard actieve gebruikers per maand is Facebook ’s werelds grootste sociale netwerk. Begin dit jaar beloofde oprichter en CEO Mark Zuckerberg het platform te bevrijden van de grote hoeveelheid verschrikkelijke content die dagelijks gepost wordt. Voor eind 2018 wil Facebook daarom het aantal mensen dat het platform screent op ongepaste berichten verdubbelen tot 20.000. Maar dat zou alsnog neerkomen op 100.000 accounts per maand per medewerker. Dweilen met de kraan open. Ondertussen eist de job wel een hoge psychische tol.

donderdag 26 april 2018 22:45
Spread the love

De wereld raakt meer angstig en verdeeld dan ooit tevoren, concludeert zelfs Zuckerberg himself begin dit jaar. Dat Facebook als grootste sociale netwerk ter wereld daarin een rol speelt is een understatement. Zuckerberg kondigt dan ook aan zijn bijdrage te willen leveren door Facebook op te kuisen. Maar om dat voor elkaar te krijgen, is een klein leger aan mensen nodig om posts dagelijks te modereren.

Begin vorig jaar nog kwam het moderatiesysteem van Facebook onder vuur te liggen. Het bedrijf werd op de vingers getikt voor het ongepast censureren van posts en het onvoldoende snel verwijderen van extreme content.

Voor eind 2018 wil Zuckerberg daarom het aantal moderators verdubbelen tot 20.000. Zeker 7.500 mensen voeren momenteel deze job uit. Hij gaat dus dit jaar meer dan 10.000 extra mensen werven die zogezegd werken aan ‘het verbeteren van de veiligheid van zijn community’. 

1 miljoen meldingen per dag

News feed integrity data specialist, heet de functie officieel. Facebook vertrouwt erop dat gebruikers van het sociale netwerk ongepaste content rapporteren. Dagelijks komen meer dan 1 miljoen meldingen binnen over mogelijk aanstootgevende content. Daarvan zijn slechts 1 op de tien meldingen door computers van Facebook zelf opgemerkt. Al zal dat aantal in de toekomst wel stijgen.

Algoritmes zijn helaas niet voldoende om posts te modereren. Een post met exact dezelfde woorden, kan in het ene geval een grap zijn, in het andere geval niet. Om dat te beoordelen, is intuïtie nodig en menselijk oordelingsvermogen. Een algoritme kan dat niet.

Facebook besloot al jaren geleden om voor dit werk te vertrouwen op uitzendkrachten. Duitsland staat bekend als één van Facebooks belangrijkste hubs voor het modereren van content. Een nieuwe wet in Duitsland die sociale media-bedrijven ertoe verplicht om effectief hate speech en geweld te verwijderen, heeft daar zeker toe bijgedragen.

In Berlijn en Essen screenen op dit moment meer dan 1.000 mensen dagelijks duizenden posts. De meesten zijn aangenomen via het uitzendbureau Arvato, een dochteronderneming van mediabedrijf Bertelsmann, dat weer één van Duitslands machtigste bedrijven is.

Andere belangrijke uitzendbureaus die moderators opleveren zijn Accenture PLC, PRO Unlimited Inc. en Squad Run. De moderators werken vanuit thuis, callcenters in India en de Filipijnen of zogenaamde cubicle farms.

Geheimhoudingsplicht

Zo’n cubicle farms zijn onder andere te vinden in Duitsland. Zeker veertig talen worden daar door moderators uit de hele wereld vertegenwoordigd. Over de werkwijze, training en ondersteuning doet Facebook erg geheimzinnig. In Duitsland weten mensen pas nádat ze ‘ja’ zeggen op de algemene jobomschrijving dat ze voor Facebook zullen werken. Wel hebben ze tijdens de sollicitatie de vraag gekregen of ze opgewassen zijn tegen het zien van ellende. Als eerste wordt dan een geheimhoudingscontract onder hun neus geschoven om te ondertekenen. Familie en vrienden mogen van niets weten. Persoonlijke bezittingen mogen niet mee het kantoor in. Pen en papier vind je er niet. Gsm’s gaan in een kluis.

Ondanks deze geheimhoudingsplicht hebben de afgelopen jaren al verschillende oud-moderators in diverse media hun verhaal gedaan over de zware werkomstandigheden en de psychische tol die de job eist. Toch heeft niemand iets losgelaten over de specifieke werkmethode die moderators moeten volgen. Tot nu. In de Volkskrant doet deze week Erik, een Nederlandstalige ex-medewerker, daarover een boekje open. Acht maanden heeft hij vorig jaar voor Facebook content gemodereerd.

In het algemeen is naaktheid, hate speech en verheerlijkt geweld op Facebook verboden. Maar het exacte monitorbeleid wordt constant geherevalueerd en functioneert reactief. Een goed voorbeeld is de aanslag door een witte man in Las Vegas vorig jaar. Aanvankelijk bestempelde Facebook het als ‘massamoord’. Na hevige kritiek voerde Facebook een beleidsupdate door en viel het onder ‘terrorisme’. 

Beslissingen moeten genuanceerd en in culturele context worden genomen, klinkt het bij Facebook, of anders wordt het bedrijf beschuldigd van het schenden van de vrijheid van meningsuiting. Het probleem daardoor is dat de moderators verwarrende instructies krijgen.

Meldingen van ongepaste posts komen in een wachtrij terecht om gemodereerd te worden. ‘Tickets’ worden deze genoemd. De meest serieuze categorieën worden als eerste behandeld. Uit de rangschikking door Facebook van de te verwerken posts blijkt dat het platform zelf ‘spam’ het meest schadelijk acht. Dat komt eerder voorbij dan kinderporno, haat of terrorisme, vertelt Erik aan de Volkskrant.

Protected categories

Facebook werkt met protected categories (PC), legt hij verder uit. Oftewel: kwetsbare groepen. Daaronder vallen onder meer transgenders, Joden, vrouwen en ernstig chronisch zieken. Voorwaarde is dat de hele groep wordt aangesproken. Alleen dan mag Erik het bericht verwijderen. ‘Luie zwarte’ moet je laten staan van Facebook.

Dan heb je ook quasi protected categories (QPC). Vluchtelingen, migranten en asielzoekers worden daartoe gerekend. QPC’s krijgen nauwelijks bescherming. ‘Moordenaars, dievenbende, uitvreters’ ziet Facebook door de vingers, zegt Erik. Pas als wordt opgeroepen tot geweld – zoals ‘Schiet die boot met asielzoekers kapot’ – mag een moderator ingrijpen.

Exact twaalf seconden had Erik om te beslissing of een post de richtlijnen overschrijdt. Daarbij moest hij telkens kiezen uit vijf categorieën: negeren, verwijderen, checken bij een meerdere, escaleren of markeren als gevoelig / wreed. Hogere medewerkers bepalen daarna de strafmaat. Een overtreding kan leiden tot een tijdelijke blokkering van het account of een permanente schorsing.

Met vier andere werknemers moest Erik zo’n 8.000 tickets per dag verwerken. Daarvan moest hij persoonlijk – dagelijks dus – minstens 1.800 beoordelen. Allemaal over geweld, haat, zelfbeschadiging en kinderporno. In zijn derde week kreeg Erik zonder waarschuwing video’s erbij. Stenigingen, martelingen, executies, alles komt voorbij. Anorexia-patiënten die anderen aanmoedigen. Levensgevaarlijke challenges onder pubers.

Continue stresssituatie

Tussen de te modereren posts is geen tijd om mentaal bij te komen. En elke keer is het volkomen onmogelijk om jezelf psychisch voor te bereiden op wat je bij de volgende gaat zien. Zo bevind je je continu in een stresssituatie, getuigt ook Burcu Gültekin Punsmann in de Süddeutsche Zeitung Magazin. In juli 2017 ging ze als moderator – net als Erik – in Duitsland voor Facebook aan de slag. Drie maanden heeft ze het volgehouden. Hoewel sommigen al op hun eerste of tweede werkdag vertrekken. Soms gaan ze voor een lunch de deur uit, om nooit meer terug te keren.

Het werk wordt beschouwd als te complex voor algoritmes, maar tegelijkertijd wordt van moderators verwacht dat ze handelen als een computer, legt Punsmann uit. Facebooks zoektocht naar uniformiteit en standaardisering, samen met de strikte productiviteitsnormen, laat niet veel ruimte over voor menselijk oordelingsvermogen en intuïtie.




Deze standaardisering is bedoeld om bij te dragen aan de ‘objectiviteit’. De moderator zou geen enkele assumptie mogen aannemen. De intenties van de persoon achter de post mag die niet in vraag stellen. De overtreding moet direct duidelijk zijn en binnen het beleidskader passen.

“Reflectie wordt niet aangemoedigd”, zegt Punsmann. Je kan enkel voorbeelden verzamelen om loopholes in het beleid aan te tonen.

Vuile werk opknappen

Leidinggevend personeel beschouwde het werk als relatief low-skilled. “De vaste werknemers van Facebook manageden ons, voerden vergaderingen en zetten beleidslijnen uit. Wij externen knapten het vuile werk op”, benadrukt ook Sarah Katz (27) als ex-Facebook-moderator in een getuigenis begin februari op BBC-radio.

In een situatie van continue stress, leert je verstand om de controle over te nemen om de gevoelens van boosheid en walging te boven te komen. Dat is erg vermoeiend, merkte Punsmann.

Dergelijk werk is afmattend, uitputtend en kan leiden tot psychische trauma’s, waarschuwen ook experts. “Op de lange termijn raak je ongevoelig. Het werk wordt niet gemakkelijker, maar je raakt er wel zeker aan gewend”, zegt Katz. Toen zij er in 2016 werkte waren er nog niet eens therapiesessies beschikbaar. “Ze waarschuwden ons zeker, maar gewaarschuwd zijn en het feitelijk zien, zijn twee verschillende dingen.”

Copingsmechanismen onder Katz en haar collega’s waren zwarte humor en ronddraaien in je stoel om te verwerken wat voor iets vreselijks je zojuist gezien hebt. Door de hoge werkdruk is er ook amper tijd voor sociale interactie met collega’s, vertelt Katz. Daardoor voel je je geïsoleerd. Wat de impact van de beelden die je de hele dag ziet enkel versterkt.

Als Katz één woord moet gebruiken om de job te omschrijven, dan is dat ‘veeleisend’, vertelt ze aan BBC. “Je moet voorbereid zijn om vanalles te zien na slechts één druk op de knop. Je kan heel snel met iets geconfronteerd worden, zonder enige waarschuwing.”

Na een shift van 8 uur is het moeilijk om de ellende die je gezien hebt los te laten. Punsmann voelde zich machteloos dat ze niet kon ingrijpen. Was dit een digitale reflectie van de maatschappij?, vroeg ze zich af.

Zij en haar collega’s maakten zich zorgen over de lange termijn-effecten van de job. Er was ruimte nodig om met elkaar ervaringen te delen, maar die ruimte was er niet. Sommigen blijven uit hun evenwicht lange tijd nadat ze met de functie gestopt zijn.

Haat in Nederland en Vlaanderen

De haat in de Nederlandse taalgebieden – ook Vlaanderen dus – is wat Erik het meeste raakt. De intense haat tegen zwarte mensen, asielzoekers en Marokkaanse Nederlanders, vertelt hij aan de Volkskrant. Is iemand volgens Facebook een publiek persoon dan mag daar alles tegen gezegd worden. ‘Ga terug naar je apenland’ of ‘Sterf, hoer’ tegen Sylvana Simons moest Erik gewoon toelaten. Een keer was hij het zat. Hij markeerde een post als ‘haat’ en verwijderde het. Direct sprak een leidinggevende hem erop aan en zijn scoringspercentage voor beoordelingen die voldoen aan het Facebookbeleid zakte naar 85 procent. Dat moet minstens 98 procent zijn.

Dan komt in oktober 2017 een Europese ngo bij Facebook kijken hoe het omgaat met hate speech. Ineens luidt Simons’ status ‘beschermd persoon’. Facebooks verantwoording: naast politica is ze ook een activiste. Facebook trekt de meeste bezoekers aan bij ophef. Die zorgen voor emoties en lokken reacties uit. Pas als de ophef over henzelf gaat, is het een ander verhaal.

Facebook zegt officieel therapie, weerbaarheidstraining en andere vormen van psychologische ondersteuning te bieden aan iedereen die content modereert. Toen Erik in de vestiging in Berlijn werkte was daar één psycholoog, een feelgood-manager en een maatschappelijk werker. Van de feelgood-manager ontvingen de werknemers mailtjes over yogalessen en het advies dagelijks vers fruit te eten. De psycholoog gaf hem de raad om na het werk niet direct in de U-bahn te stappen, maar de eerste paar haltes te stappen. Ook kreeg hij mee hoe belangrijk zijn werk is. Voor Erik weinig effectief.

Hij ging over op eigen maatregelen. Hij begon met een borrel na werktijd. Dan ook voor hij op de U-bahn stapte. Vervolgens tijdens de werkuren. Tot hij dagelijks een blauwe Facebookfles gevuld met een liter wijn mee naar kantoor nam. En bezoekjes aan een Poolse markt vlakbij Frankfurt aan de Oder waar goedkoop en zonder recept diazepam, valium en andere stemming-afvlakkende medicijnen te krijgen zijn, gingen tot Eriks regelmatige uitstapjes behoren. Ondertussen raakte hij angstiger en wantrouwig naar mensen toe, bekent hij aan de Volkskrant. Een Deense collega wordt na een aantal maanden met een posttraumatische stressstoornis opgenomen. Hijzelf volgt nog steeds wekelijks therapie.

Het snelle tempo waarin je beslissingen moet nemen vermindert het complex analytisch proces tot een automatische handeling. De moderator reageert. Het werk verandert in een eindeloze repetitie, merkte Punsmann.

Alcohol & PTSS

De enige zingeving die een Facebook-moderator kan ervaren is het idee dat je anderen beschermt voor het zien van dezelfde gruwelijke beelden. Het delen zelf van zulke beelden is niet illegaal, dus het weghalen van de content heeft weinig impact op de dader als het gaat om degene verantwoordelijk houden voor zijn of haar ongepaste gedrag. De enige macht die een moderator heeft is om een post te verwijderen. Slechts in uitzonderlijke gevallen kan je een betreffende persoon een notificatie sturen dat zijn of haar post wreed is. “Ik had gewild dat ik die functie vaker had mogen gebruiken”, zegt Punsmann.

Wil Facebook het aantal moderators dat het platform veilig moet houden met tienduizend mensen uitbreiden, dan moeten ze er zeker van zijn dat ze mensen aannemen die goed getraind zijn en goed verzorgd worden. Maar op de lange termijn is het plaatsen van een leger aan menselijke moderators op deze functie geen duurzame oplossing. De massale hoeveelheid content op dit platform maakt het vrijwel onmogelijk voor zelfs duizenden mensen om tot een significante verandering te komen in deze opkuispoging.

De verwachting is dat artificiële intelligentie (AI) in de toekomst de mens in dit vakgebied voorbij raast en de moderatie grotendeels zal overnemen. Voor de werknemers zelf liever vroeger dan laat?

Bronnen:

https://www.volkskrant.nl/tech/een-oud-medewerker-vertelt-over-de-ellende-achter-de-facade-van-facebook~a4594798/?utm_source=facebook&utm_medium=social&utm_campaign=shared%20content&utm_content=paid&hash=ce777d9fe11970778a11f59d39fd7f7df26bd9f0

https://www.theguardian.com/news/2017/may/25/facebook-moderator-underpaid-overburdened-extreme-content

https://slate.com/technology/2018/01/facebook-and-google-are-building-an-army-of-content-moderators-for-2018.html

https://www.wsj.com/articles/the-worst-job-in-technology-staring-at-human-depravity-to-keep-it-off-facebook-1514398398

https://www.theguardian.com/technology/2017/may/04/facebook-content-moderators-ptsd-psychological-dangers

http://www.bbc.com/news/technology-42920554

https://www.thelocal.de/20161216/this-is-what-facebook-moderators-in-berlin-have-to-deal-with

http://www.news.com.au/technology/online/social/the-worst-job-in-technology-is-moderating-pornography-racism-and-violence-online/news-story/1784a6cd76d1bb26183275b79728e184

http://fortune.com/2018/03/22/human-moderators-facebook-youtube-twitter/

https://sz-magazin.sueddeutsche.de/internet/three-months-in-hell-84381

http://www.businessinsider.com/content-moderators-facebook-youtube-microsoft-whats-it-like-2017-12?international=true&r=US&IR=T

dagelijkse newsletter

take down
the paywall
steun ons nu!