Artificiële intelligentie, bevrijding of koloniaal project? Vijf mythes over AI doorprikt
Van AI-hallucinaties op de openingstoespraak van de rector van de Universiteit Gent tot de verspreiding van geseksualiseerde beelden van vrouwen en kinderen, AI zorgt voor nieuwe uitdagingen en versterkt bestaande ongelijkheden. Maar kan AI ook leiden tot positieve ontwikkelingen? Kif Kif doorprikt de mythes en zoekt naar een weg vooruit.
Mythe 1: De term ‘AI’ heeft een duidelijke betekenis
De term ‘AI’ wordt door iedereen gebruikt, maar weinig mensen zouden erin slagen om een duidelijke definitie te geven. Er bestaat dan ook niet één aanvaarde definitie van AI. Dat bemoeilijkt het opstellen van duidelijke wetgeving rond AI. Maar het zorgt er ook voor dat bedrijven gemakkelijker een ‘AI’-label op hun producten en diensten kunnen plakken en grote beloftes kunnen doen over de voordelen ervan (ook wel AI-washing genoemd).
AI is een verzamelterm voor een breed scala aan digitale rekenkundige methodes, ook wel algoritmes genoemd. Deze herkennen patronen aan de hand van gegevens – ook wel data – en zorgen dan voor een bepaald resultaat. Een belangrijke eigenschap voor technieken die als AI worden bestempeld, is dat ze gebruik maken van ‘machine learning’. Dit betekent dat men niet telkens opnieuw handmatig moet invoeren hoe het algoritme besluiten neemt. In plaats daarvan kan men het algoritme aanleren om zelf besluiten te nemen.
In het begin kan een algoritme bijvoorbeeld afbeeldingen van een hond niet onderscheiden van afbeeldingen van een kat. Menselijke 'datawerkers' trainen het algoritme daarom eerst door afbeeldingen te labelen. Na verloop van tijd zal het algoritme steeds beter leren inschatten welke afbeelding een hond bevat en welke een kat. Men heeft echter geen inzicht op basis van welke criteria het algoritme de twee leert te onderscheiden. De achterliggende redenen voor de beslissingen van algoritmes zijn dus als het ware een black box. Dit is meestal relatief onschuldig wanneer het gaat om afbeeldingen van honden en katten, maar wordt al heel wat riskanter wanneer het gaat om bijvoorbeeld het aanwerven van kandidaten voor een vacature. Daarover later in dit artikel meer.
Mythe 2: AI is objectief en neutraal
AI leert door de input van data, die informatie geven over een bepaalde omgeving. Maar deze data zijn niet neutraal: ze reflecteren de systematische ongelijkheden en uitsluiting in onze maatschappij. Dit fenomeen wordt door de computerwetenschapper Joy Buolamwini ‘power shadows’ genoemd. Dit zorgt voor structurele discriminatie in het algoritme, wat bias wordt genoemd.
Bias
Vaak ontstaat bias door een gebrek aan representatieve data. De datasets bevatten in dat geval niet evenveel (goede) data voor verschillende bevolkingsgroepen, waardoor het algoritme veel minder accuraat werkt bij ondergerepresenteerde groepen. De Canadees-Amerikaanse digitale activist én zwarte vrouw Joy Buolamwini ondervond dit zelf toen haar gezicht door het gezichtsherkenningsalgoritme niet herkend werd, omdat de algoritmen vooral getraind waren op witte en mannelijke gezichten. Ze moest een wit masker opzetten om 'herkend' te worden.
Bias kan ook ontstaan wanneer gevoelige data worden opgenomen in datasets. Van sommige data wordt erkend dat ze te risicovol zijn om op te nemen, zoals iemands huidskleur. Maar andere data, zoals het woonadres of inkomsten, worden wel opgenomen, terwijl ze vaak het gevolg zijn van ongelijkheden in de samenleving. Beslissingen op basis van deze data kunnen dus ook tot discriminatie leiden. Zo was er in Nederland de toeslagenaffaire, waarbij de Nederlandse overheid AI gebruikte om te bepalen wie sociale fraude pleegde. De AI bestempelde het hebben van een dubbele nationaliteit als een risicofactor voor sociale fraude. Hierdoor werden duizenden Nederlanders met een dubbele nationaliteit onterecht bestempeld als fraudeur, en verloren ze hun kinderopvangtoeslag.
Beeldvorming en taalongelijkheid
De bias in de data en dus de AI heeft niet alleen individuele gevolgen maar ook maatschappelijke gevolgen. AI reflecteert een westers, wit, hetero en mannelijk wereldbeeld. Hierdoor worden racistische, seksistische en queerfobe stereotypen verspreid in de samenleving. Dit leidt tot structurele ongelijkheden in beeldvorming en taalgebruik.
Onderzoek van de non-profit organisatie ‘Queer in AI’ toont bijvoorbeeld aan dat queer mensen en identiteiten ondervertegenwoordigd worden in data, en dat AI getraind wordt op teksten die haatspraak bevatten. Haatspraak die dan weer via AI zoals ChatGPT verspreid wordt. De AI-modellen gaan ook uit van een binair gendersysteem dat hierdoor verder structureel verankerd wordt in de samenleving. Queer mensen en identiteiten worden dus uitgesloten en onzichtbaar gemaakt.
Een ander onderzoek toont aan dat de afbeeldingen die door AI worden gemaakt structureel racistische en seksistische afbeeldingen genereert.
De onderzoekers vroegen aan de AI om mensen in bepaalde beroepen af te beelden. Bovenstaande tabel laat zien dat de AI in hoogbetaalde beroepen voornamelijk mannen afbeeldt, en in laagbetaalde beroepen voornamelijk vrouwen.
Wanneer de onderzoekers keken naar de huidskleur van de afgebeelde personen, zagen ze dat de hoogbetaalde beroepen werden geassocieerd met witheid, en de laagbetaalde beroepen met zwartheid. Het is belangrijk om te vermelden dat de ongelijkheid die de AI toont nog groter is dan de ongelijkheid die bestaat in de echte wereld.
Wanneer men de afbeeldingen bekijkt, ziet men deze resultaten duidelijk terug. Dokters en juristen zijn volgens de AI witte mannen, terwijl kassiersters en huishoudsters vrouwen van kleur zijn volgens de AI.
Daarnaast vroegen de onderzoekers ook nog om afbeeldingen te genereren van een terrorist. Vooral Arabisch-uitziende mannen werden door het AI-model geassocieerd met terrorisme. Het is dus duidelijk hoe erg AI stereotiepe opvattingen volgt en versterkt.
De ongelijkheid wordt niet alleen versterkt via beeldvorming, maar ook via taalgebruik. Doordat veel talen niet of amper mee worden opgenomen in de datasets van bijvoorbeeld ChatGPT, wordt de uitsterving van sommige talen versneld. De impact hiervan mag niet onderschat worden. Taal draagt ook bepaalde waarden, tradities en kennis in zich. Veel kennis van lokale planten en ecologische processen zijn bijvoorbeeld taalgebonden. Wanneer de taal verloren gaat, gaat ook veel waardevolle kennis verloren. En zo worden westerse normen, waarden en kennissystemen nog dominanter.
AI vrij van bias?
Beleidsmakers en bedrijven zien de oplossingen voor bias in AI voornamelijk in het verbeteren van de kwaliteit van data, om zo 'eerlijke' of ‘betrouwbare’ AI te ontwikkelen. Maar recent onderzoek toont aan dat het waarschijnlijk technisch onmogelijk is om datasets op te stellen die volledig vrij zijn van bias en discriminatie, zelfs in ideale omstandigheden wanneer men al het mogelijke probeert. Ook als we imperfecties toelaten is het nog steeds erg uitdagend en duur om een kwaliteitsvolle dataset op te stellen. Bedrijven zien gegevensbescherming als een obstakel voor hun winst wanneer ze AI modellen trainen. Zo lobbyden Big Tech-bedrijven bij de Europese Unie om bepaalde beschermingen inzake het gebruik van gevoelige data af te schaffen. Van hen moeten we dus weinig verwachten wanneer het gaat om het tegengaan van discriminatie in AI. We moeten dus zeer waakzaam zijn wanneer we AI toepassingen gebruiken: er is steeds een reële kans op discriminatie, ondanks de mooie beloftes.
Mythe 3: De opkomst van AI is een revolutie
Tech-bedrijven hebben het vaak over de AI-revolutie die ons leven drastisch zal veranderen. Van een totale ‘disruptie’ in de economie tot het letterlijke einde van de wereld, de grote claims dienen om kapitaal aan te trekken en de waarheid over AI te verhullen. Want de zeer reële (schadelijke) gevolgen van AI vormen geen breuk met het verleden. Integendeel, AI wordt ingebed in de sociale context en versterkt de kapitalistische en koloniale dynamieken die al bestaan. Geen revolutie maar evolutie dus.
De vragen die we ons moeten stellen bij AI gaan dan ook niet hoofdzakelijk over de technische inhoud, maar over macht. Hoe wordt AI geproduceerd? En wie wordt daar beter van? Kate Crawford, auteur van het boek ‘The Atlas of AI’, schrijft dan ook: "Artificiële intelligentie is niet alleen code of algoritme, het is een wereldwijd industrieel systeem gebouwd op verschillende lagen van extractie: van energie, arbeid, mineralen en data."
Arbeid en data
Allereerst vereist de productie van AI, net zoals zoveel andere goederen, zo goedkoop mogelijke arbeidskrachten om de winsten te maximaliseren. Op zoek naar goedkope arbeidskrachten die de AI modellen trainen, nemen AI-producenten zoals OpenAI datalabelingbedrijven in dienst als onderaannemers, die op hun beurt freelance data-werkers zoeken die voor hun cliënten massale hoeveelheden data verwerken. De Wereldbank schat dat er wereldwijd tussen de 150 en 450 miljoen datawerkers tewerkgesteld worden.
De datawerkers zijn vaak mensen in kwetsbare omstandigheden, voornamelijk uit het Globale Zuiden, die moeilijk stabiele tewerkstelling vinden en daardoor weinig jobkeuze hebben. Datawerk voor techbedrijven wordt voorgesteld als dé manier om een beter leven op te bouwen. Er wordt hun autonomie en een goed inkomen beloofd, en de idee dat men mee zal stappen in de technologische revolutie. De waarheid is echter heel anders. Datawerkers krijgen zeer slecht betaald, werken heel lange uren en hebben geen jobzekerheid, ondanks de intensieve, mentaal slopende en complexe aard van de job. Rijke techbedrijven profiteren dus van slechtbetaalde arbeid in het Globale Zuiden, en ontdoen zich via het systeem van onderaannemers van alle verantwoordelijkheid. De getuigenis van Oskarina, een Venezolaanse datawerker die spreekt over de tol die datawerk opeist, is zeker de moeite waard om te bekijken in de video hieronder.
De datawerkers zijn vaak mensen in kwetsbare omstandigheden, voornamelijk uit het Globale Zuiden
Milieuimpact
De productie van AI heeft een aanzienlijke impact op het milieu. Allereerst zijn er goedkope natuurlijke grondstoffen vereist om AI te produceren. De ontginning van natuurlijke grondstoffen voor AI gaat daarom samen met grootschalige mensenrechtenschendingen en milieuvervuiling, alweer voornamelijk in het Globale Zuiden. Zo zijn er voor de datacenters (dit zijn grote gebouwen die computers bevatten) waarop AI draait, grondstoffen zoals lithium, kobalt en coltan nodig. In mensonterende omstandigheden vindt daar vervuilende extractie plaats. Recent vielen er nog 200 doden bij een instorting van een coltanmijn in Congo.
Vervolgens verbruikt het ontwikkelen en gebruik van de AI erg veel water en energie. Volgens één onderzoek verbruikt elke opdracht aan ChatGPT (of gelijkaardig) een halve liter water. Een onderzoek van Greenpeace schat dan weer dat datacenters wereldwijd jaarlijks 664 miljard liter water zullen verbruiken tegen 2028, tegenover 239 miljard liter in 2024. En dat terwijl de VN net een rapport publiceerde over waterschaarste en spreekt van een permanente crisis. Op vlak van energieverbruik schat onderzoek dat tegen 2035 20 procent van het totale energieverbruik afkomstig zal zijn van datacenters. De stijging zou grotendeels het gevolg zijn van AI.
Tot slot worden deze datacenters vaak geplaatst in armere regio’s, waardoor lokale gemeenschappen te maken krijgen met waterschaarste, lokale vervuiling en stijgende energieprijzen. In Chili wilde Google datacenters bouwen in een regio gekenmerkt door aanhoudende droogte, die evenveel water zou verbruiken als heel de lokale gemeenschap samen. In België is het geen toeval dat Google datacenters bouwt in Henegouwen, in één van de armste regio's van België. Lokale gemeenschappen beginnen ondertussen steeds vaker te strijden tegen de komst van datacenters.
Terwijl de opbrengsten van AI voornamelijk een kleine minderheid in het Globale Noorden ten goede komen, worden de enorme menselijke kosten en klimaatkosten van deze technologie vooral betaald door armere lagen van de bevolking in het Noorden en Zuiden. Kortom, de AI-industrie zorgt op een gelijkaardige manier voor globale economische ongelijkheid als de rest van de door multinationals gedomineerde wereldhandel. Van een revolutie is ook op economisch vlak dus geen sprake.
Mythe 4: AI maakt ons leven gemakkelijker
Volgens de Big Tech-goeroes zal AI de gewone mens een duwtje in de rug geven. Of je nu met moeilijkheden op school zit of geen job kan vinden, AI is er om je te helpen. Niet alleen dat, we gaan ook nog eens onze taken sneller afwerken, waardoor we meer vrije tijd hebben. Maar in werkelijkheid hangen de effecten van AI – naast de aard van het algoritme zelf – af van de context waarin deze toegepast wordt. En daar wringt het schoentje.
Onderzoek toont bijvoorbeeld aan dat driekwart van Belgische recruiters op de arbeidsmarkt AI gebruikt voor nieuwe aanwervingen en steeds meer afhankelijk worden van LinkedIn voor de rekrutering. Maar niemand heeft inzicht in hoe de algoritmes van LinkedIn werken en welke discriminatie daar optreedt. Het is goed mogelijk dat AI een job als ‘mannelijk’ beschouwt en bijgevolg vrouwen benadeelt in de beoordeling van de CV’s. Enerzijds maakt het algoritme de discriminatie dus nóg moeilijker zichtbaar dan voordien. Maar anderzijds worden de recruiters zelf ook steeds afhankelijker van grote techplatformen en complexe algoritmes, en krijgen ze daardoor zelf ook minder inzicht en inspraak in het proces. Onze samenleving wordt dus steeds complexer en afhankelijker van Big Tech door het gebruik van AI. Dit leidt tot het risico dat mensen en overheden nog minder controle en keuze hebben over zaken die hen aangaan.
In gesprekken over verantwoord gebruik van AI wordt het human-in-the-loop principe vaak vermeld. Volgens dat principe moeten eindbeslissingen steeds door een mens worden genomen. AI mag slechts een hulpmiddel zijn. Maar het voorbeeld van AI-gebruik bij rekruteringen toont aan dat dit principe tegen serieuze limieten aanloopt. Het onderzoek toont immers aan dat de meeste recruiters immers niet over voldoende kennis van de werking van AI beschikken. En dat is niet alleen een individuele tekortkoming. AI wordt vaak door de verkopers ontworpen om neutraal en correct te lijken. Daardoor volgen mensen in de praktijk vaak klakkeloos de uitkomst van het algoritme in plaats van die in vraag stellen.
Voor welk doel wordt AI ingezet?
We moeten ons daarbij ook afvragen met welk doel AI wordt ingezet. Want welke problemen lost men écht op met AI? Zal AI die gebruikt wordt om sociale fraude op te sporen helpen om mensen uit de armoede te halen? Zal AI die recidive voorspelt bij jongeren echt helpen jongeren een betere toekomst te geven? Of zijn dit pogingen om complexe sociale problemen uit te besteden aan computersoftware, om vooral zelf niet het moeilijke werk te doen van echte sociale verandering? Kunnen we er vandaag de dag op vertrouwen dat onze politici opkomen voor het algemeen belang, met aandacht voor racisme en discriminatie?
Gemakkelijker, of sneller?
Daarnaast moeten we, om de impact van AI op ons leven in te schatten, kijken naar hoe we als individuen AI gebruiken. In sommige gevallen is AI duidelijk behulpzaam. We kunnen sneller mails opstellen of krijgen hulp bij het kiezen van de juiste restaurants in de buurt. Maar dit gemak en de tijdswinst hebben ook een keerzijde. De antropoloog Brett Scott stelde daarom: 'Technologie maakt ons leven niet gemakkelijker, het maakt het sneller.’
We kunnen als voorbeeld ons werk nemen. Op korte termijn kan AI ons helpen sneller ons werk af te maken. Maar paradoxaal genoeg leidt dit niet tot meer vrije tijd, maar juist tot intensievere en vervreemdende arbeid. Net zoals in de 19e en 20e eeuw handarbeid evolueerde van ambachtswerk naar industrieel bandwerk, zal dat ook gebeuren voor mentale arbeid. Neem bijvoorbeeld het programmeerwerk van een ICT’er. Waar vroeger een ICT’er zelf code schreef, moet die nu het werk van de AI controleren. Deze degradatie van de kwaliteit van het werk brengt vervreemding met zich mee. Zo getuigt een jonge programmeur: ‘Een groter deel van het werk bestaat nu uit het nalezen van AI-code. Dat is ergens jammer: je mist zo wel de voldoening van zelf te programmeren.’
De vraag of AI ons leven zal verbeteren gaat dus over veel meer dan het gemak dat het ons kan bezorgen. Het gaat over hoe beslissingen worden gemaakt, over inspraak, en over wie de macht en controle heeft. En vooral: het gaat over hoe sociale verandering gebeurt en wat ons leven nu echt beter maakt. Is sneller altijd beter? Is technologie dé oplossing voor sociale problemen? Of riskeren we de tredmolen van de ratrace alleen maar te versnellen?
Mythe 5: Progressieve bewegingen mogen nooit AI gebruiken
Big Tech doet er alles aan om de controle over AI te behouden en de wereld naar hun wensbeeld te buigen. De gevolgen voor geracialiseerde gemeenschappen, het klimaat en mensenrechten zijn voor hen irrelevant. Deze duistere kant van AI betekent echter niet dat deze technologie helemaal geen plaats kan hebben in een betere toekomst.
Zoals eerder gezegd, verwerkt AI grote hoeveelheden informatie om patronen te herkennen en voorspellingen te maken. In sommige contexten is dit zeer waardevol. Mooie voorbeelden zijn onder andere het voorspellen van veranderende migratiepatronen van dieren door klimaatopwarming, het vroegtijdig herkennen van ziekten zoals kanker, en een efficiëntere werking van het elektriciteitsnetwerk.
Dichter bij huis gebruikt de Belgische organisatie Strategies & Leaders AI om machtsopbouw voor progressieve bewegingen te versterken. Hoewel we ons vragen kunnen en moeten stellen over de ethische aspecten van dit soort gebruik van Big Tech, mogen we niet zomaar elk gebruik van AI afwijzen. Creatief omgaan met de tools die tot onze beschikking staan, helpt om de veranderingen die we willen zien ook effectief te bereiken. Niet al het AI-gebruik is dus slecht.
We moeten AI-gebruik niet zomaar afwijzen
Maar het is wel belangrijk dat AI volgens andere principes gebouwd en gebruikt wordt. We moeten weg van gigantische, energieslurpende modellen die ervan uitgaan dat heel de wereld te vatten is in data, en daarbij zowel de waarheid als onze planeet geweld aandoen. We moeten evolueren naar ecologische AI. Dergelijke AI zou geproduceerd en toegepast worden op kleinere schaal, voor specifieke taken en welbepaalde culturele contexten, met aandacht voor de inherente beperkingen van AI-modellen.
Een sterk voorbeeld hiervan is de AI van Te Hiku Media. Te Hiku Media is een mediaplatform voor en door de Māori-bevolking in Nieuw-Zeeland. Zij bouwden een AI die helpt de uitstervende Māori-taal in leven te houden. Het AI model werd getraind met ingesproken audiofragmenten, en behield ondanks de kleinere dataset een accuraatheid van 92 procent, beter dan die van Big Tech-bedrijven. Het project volgde het principe van data-soevereiniteit: de data bleven eigendom van de Māori-gemeenschap en konden alleen met hun akkoord ingezet worden.
Een ander voorbeeld is Thaura. Twee Syrische broers ontwikkelden Thaura als ethisch alternatief voor ChatGPT. De AI verbruikt volgens hen 90 procent minder energie dan de grote AI-modellen en pretendeert niet politiek neutraal te zijn tegenover gebeurtenissen zoals de genocide in Palestina. Hun doel is om een alternatief te bieden voor Big Tech en progressieve bewegingen een ethische tool te geven om maatschappelijk verzet te organiseren. Dit project bevindt zich momenteel in de beginfase.
AI wordt vandaag gedomineerd door Big Tech-bedrijven die proberen zoveel mogelijk AI-toepassingen te verkopen, terwijl ze de reële kosten en gevaren verbergen. Maar de bovenstaande initiatieven tonen aan dat technologie ook anders ontwikkeld en gebruikt kan worden. AI kan ecologisch verantwoord zijn, met respect voor onze data, onze burgerrechten en met aandacht voor het publieke belang. Kort gezegd is er democratische controle over AI nodig zodat we kunnen beslissen óf we AI gebruiken en wélke AI we gebruiken. Het is aan ons om er alles aan te doen om te zorgen dat deze toekomst uitkomt.
Dit artikel is overgenomen van Kif Kif.