Bron: Pixabay
Prabir Purkayastha, People's Dispatch,

Hoe de algoritmen van Facebook giftige content en haat propageren

Klokkenluider Frances Haugen heeft harde bewijzen onthuld − interne Facebook-documenten − waaruit blijkt dat Facebook wist dat zijn algoritmen gevaarlijke inhoud propageren maar daar niets aan deed, want het wilde vooral zijn inkomsten uit reclame maximaliseren.

vrijdag 12 november 2021 15:42
Spread the love

 

Facebook staat momenteel in de schijnwerpers om zowel een terechte, als een foute reden. De foute is dat Facebook, Instagram en WhatsApp vorige week door een kleine configuratiewijziging een paar uur plat lagen. Miljarden gebruikers werden getroffen, wat aantoont hoe belangrijk Facebook en andere techreuzen zijn geworden in ons leven en voor onze bezigheden. De veel interessantere kwestie is vanzelfsprekend dat klokkenluider en voormalig werknemer Frances Haugen tienduizenden pagina’s interne documenten openbaar heeft gemaakt.

Uit die documenten blijkt dat de top van Facebook keer op keer winst boven maatschappelijk welzijn stelde. De algoritmen van Facebook hebben de samenleving gepolariseerd en haat en nepnieuws gepropageerd doordat ze het ‘engagement’ op de platforms van de socialmediagigant aanjagen. Dat dit gemeenschappen uit elkaar rukt en zelfs jonge tieners in gevaar brengt omdat ze geen ‘perfect’ lichaam hebben, kan Facebook geen barst schelen.

The Wall Street Journal publiceerde gedetailleerde onthullingen, citerend uit interne documenten van Facebook en uit wat klokkenluider Haugen vertelde in CBS 60 Minutes en tijdens hoorzittingen in het Congres. “Wat ik steeds weer zag bij Facebook was dat er belangenconflicten waren tussen wat goed was voor het algemeen en wat goed was voor Facebook,” vertelde Haugen aan CBS. “En Facebook koos er keer op keer voor om zijn eigen belangen, zoals meer geld verdienen, te maximaliseren.”

De 37-jarige datawetenschapper diende met de hulp van een non-profitorganisatie, Whistleblower Aid, acht klokkenluidersaanklachten tegen Facebook in bij de Security and Exchanges Commission (SEC). De aanklachten zijn onderbouwd met harde bewijzen: de tienduizenden interne documenten die zij heimelijk heeft gekopieerd voordat ze bij Facebook wegging.

Waarom is dit groot nieuws terwijl deze kwesties toch al herhaaldelijk ter sprake zijn gebracht, meer in het bijzonder na Cambridge Analytica? Wisten we niet al lang dat Facebook, WhatsApp en andere platforms krachtige instrumenten zijn geworden voor het propageren van haat en verdeeldheid? Hebben VN-onderzoekers Facebook niet verantwoordelijk gehouden voor het genocidale geweld tegen de Rohingya’s? Hebben we niet iets vergelijkbaars gezien bij de rellen tussen de bevolkingsgroepen van Muzaffarnagar in India? Het grote nieuws is dat we nu bewijs hebben dat Facebook perfect wist wat zijn platform aan het doen was. We hebben het uit de eerste hand: interne Facebookdocumenten die Haugen openbaar heeft gemaakt.

Door voorrang te geven aan berichten die aanzetten tot ‘engagement’ − d.w.z. dat mensen berichten lezen, liken of beantwoorden op Facebook, WhatsApp en Instagram − zorgde Facebook ervoor dat gebruikers veel langer op het platform bleven hangen. Zo konden zij doeltreffender worden ‘verkocht’ aan adverteerders en kregen ze steeds meer advertenties voorgeschoteld. Het bedrijfsmodel van Facebook is niet om nieuws te verspreiden, gebruikers gezellig met elkaar te laten chatten of mensen te vermaken. Het is om ons te verkopen aan degenen die aan ons koopwaar willen verkopen. En net als Google heeft Facebook een veel beter inzicht in wie we zijn en wat we zouden kunnen kopen dan wijzelf. Facebook dankt er 95% van zijn inkomsten aan en zijn plaats onder de slechts zes bedrijven die een biljoen dollar waard zijn in termen van marktkapitalisatie (september 2021).

In haar getuigenverklaring voor het Congres zei Haugen dat Facebook kunstmatige intelligentie gebruikt om gevaarlijke inhoud te vinden. Het probleem is dat “uit eigen onderzoek van Facebook blijkt dat het gevaarlijke inhoud niet adequaat kan identificeren. En die gevaarlijke algoritmes die het dus toelaat, pikken de extreme gevoelens op, de verdeeldheden …”

Dat dit gebeurde is algemeen bekend. We hebben er zelf ook over geschreven. Facebook antwoordde dat het een onafhankelijke ‘raad van toezicht’ aan het opzetten was en een groot aantal factcheckers in dienst zou nemen. Deze en andere maatregelen zouden helpen om haatberichten en nepnieuws uit te filteren, beweerde het bedrijf. Maar het hield verborgen dat dit alles maar een cosmetische ingreep was. Het verkeer op Facebook, of wat je in je feed te zien krijgt (waarmee je interageert, engage with, in Facebooktaal), wordt gestuurd door algoritmes. En deze algoritmes zijn erop gericht de meest giftige en verdeeldheid zaaiende posts te stimuleren, omdat die het engagement opdrijven. Het engagement opdrijven is de belangrijkste motor achter Facebooks algoritmes. Daardoor wordt elke maatregel om content te ontgiften tenietgedaan.

De getuigenis van Haugen in het Congres wijst ons op de echte problemen met Facebook en op de maatregelen die overheden moeten nemen om hun burgers te beschermen. “Met name niet focussen op de individuele content die mensen posten, maar op de algoritmes van Facebook. Dan komen we weer uit bij de instrumenten die landen achter de hand hebben om Facebook te disciplineren.” In de VS heb je de ‘Veiligehavenbeginselen voor de bescherming van de persoonlijke levenssfeer’ (in 2015 door het Europees Hof van Justitie ongeldig verklaard, n.v.d.r.) die bescherming bieden aan tussenpersonen zoals Facebook die zelf geen inhoud genereren maar hun platform ter beschikking stellen voor wat ‘door gebruikers gegenereerde content’ wordt genoemd. In de Verenigde Staten is dat sectie 230 van de Communications Decency Act; in India is het sectie 79 van de Information Technology Act.

In de VS zou een herziening van sectie 230 de socialmediagigant verantwoordelijk kunnen stellen voor zijn algoritmes. In de woorden van Haugen: “Als we behoorlijk toezicht zouden houden, of als we [sectie] 230 zouden hervormen om Facebook verantwoordelijk te maken voor de gevolgen van zijn doelbewuste ranking, dan denk ik dat het zou afstappen van een ranking gebaseerd op engagement … Want dat engagement is de oorzaak van de blootstelling van tieners aan meer anorexia-inhoud, van het feit dat gezinnen uit elkaar worden getrokken en dat in een land als Ethiopië het etnisch geweld letterlijk wordt aangewakkerd.” De kern van het probleem is niet dat gebruikers haatdragende boodschappen op Facebook posten, maar wel dat de algoritmes van Facebook voortdurend die giftige inhoud aan onze nieuwsfeed voeren, om daarmee de reclame-inkomsten van het bedrijf te maximaliseren.

Uiteraard wordt de grootschalige verspreiding van giftige content op Facebooks platforms in de hand gewerkt doordat Facebook moedwillig heeft nagelaten om taalcheckers in andere talen dan het Engels en de courante Europese talen aan te nemen. Hoewel het Hindi het op drie na hoogste aantal sprekers heeft en het Bengaals het op vier na hoogste, heeft Facebook volgens Haugen niet genoeg taalcheckers in deze twee talen.

We hebben in deze kolommen al eerder uitgelegd waarom tweedracht zaaiende content en nepnieuws viraler zijn dan al het andere. Met de duizenden pagina’s intern onderzoek van Facebook bevestigt Haugen nu wat andere serieuze onderzoekers en wij al die tijd al hebben gezegd. De algoritmes die Facebook en andere digitaltechbedrijven tegenwoordig gebruiken, coderen niet rechtstreeks regels om het engagement aan te jagen. Ze gebruiken integendeel machine learning, of wat losjes artificiële intelligentie wordt genoemd, om deze regels te creëren. Het is het doel − de toename van engagement − dat de regels creëert, met als gevolg de giftige content op onze feeds die samenlevingen uit elkaar scheurt en de democratie schaadt. We hebben nu harde bewijzen, duizenden pagina’s interne onderzoeksrapporten van Facebook, dat het inderdaad zo gegaan is. Het ergste is dat de leiding van Facebook, inclusief Mark Zuckerberg, zich hier ten volle bewust van was.

Niet alle schade op het Facebookplatform werd veroorzaakt door algoritmes. Uit de documenten van Haugen blijkt dat Facebook een ‘witte lijst’ had van Facebook-gebruikers van wie content zou worden gepromoot zelfs als ze de richtlijnen van Facebook zouden overtreden. Miljoenen van zulke ‘speciale’ gebruikers konden ongestraft de regels van Facebook overtreden. We schreven eerder al over het bewijs afkomstig van The Wall Street Journal, dat de Indiase afdeling van Facebook toplieden van de BJP (de regerende partij in India, n.v.d.r.) beschermde, hoewel er binnen Facebook herhaaldelijk alarmsignalen over hun posts werden gegeven.

Haugens schatkamer aan interne Facebookdocumenten onthult nog meer. Naar het voorbeeld van de sigarettenfabrikanten die onderzochten hoe ze kinderen aan het roken konden krijgen, deed Facebook onderzoek naar prille tieners, kinderen van 9 tot 12 jaar, om te zien hoe het hen aan zijn platforms kon binden, zodat het een onuitputtelijke voorraad nieuwe consumenten zou hebben. Dit ondanks het feit dat intern onderzoek had aangetoond dat de platforms anorexia en andere eetstoornissen, depressie en zelfmoordneigingen bij jongeren veroorzaakten.

Al deze bewijzen zouden Facebook moeten schaden. Maar het is een biljoenenbedrijf en een van de grootste in de wereld. Zijn vette kassaldo, samen met de macht die het uitoefent op de politiek en zijn vermogen om verkiezingen te ‘hacken’ bieden het de bescherming die het grootkapitaal in een kapitalistisch systeem krijgt. Een zonde die in het kapitalisme echter niet wordt getolereerd, is liegen tegen andere kapitalisten. De interne documenten die Haugen heeft voorgelegd aan de Security and Exchanges Commission (SEC) zouden uiteindelijk kunnen uitmonden in het terugdringen van de socialmediagiganten en een betere regulering ervan. Als er al geen sterke regulering van komt, dan op zijn minst enkele zwakke beperkingen op de algoritmen die haat bevorderen.

Tot slot citeer ik uit een tien jaar oud interview met Jeff Hammerbacher, een 28-jarige whizzkid uit Silicon Valley: “De knapste koppen van mijn generatie denken na over hoe je mensen op advertenties kunt laten klikken.” Dit is hoe de socialmediareuzen naar hun biljoenen opstomen.

 

Dit artikel is verscheen eerder al op 8 oktober 2021 op Peoples Dispatch, een oorspronkelijk artikel van Prabir Purkayastha en werd vertaald door Hilde Baccarne.

Creative Commons

take down
the paywall
steun ons nu!