Het onbezonnen eureka van de artificiële intelligentie
Alexander Michiels

Het onbezonnen eureka van de artificiële intelligentie

dinsdag 18 oktober 2016 14:29

Wie zal het bestaan van de menselijke geest nog ontkennen? Zelfs de überscepticus aller tijden, René Descartes, zou via zijn logische deductie met absolute zekerheid tot het bestaan ervan besloten hebben. Want wanneer we alles in twijfel kunnen trekken, dan is minstens één fenomeen geverificeerd: de twijfel zelf. En toch, mochten we het menselijke brein dissecteren, twijfel zal zich niet materialiseren. Net zoals we in een magische lamp in het ijle zullen grijpen op zoek naar de geest die enkele van onze wensen zal vervullen, zo ook zullen we geen twijfel vinden in een netwerk neuronen. Veelheid kan een eigenaardig kenmerk hebben: soms creëert het haar eigen emergent niveau. Niet enkel verschijnen uit neurale netwerken ideeën en concepten, maar deze ideeën en concepten vormen opnieuw netwerken om majestueuze tijdsgeesten te genereren.

En majestueus is dan nog een understatement. Tijdsgeesten zijn de kaders die limieten opleggen aan onze vrijheden en daarmee praktisch alles bepalen, zelfs de ideeën en concepten op het onderliggende niveau die aanleiding gaven tot de tijdsgeesten. Van een terugkoppeling gesproken. Het mag duidelijk zijn dat we al snel gevangen zitten in een zichzelf versterkende lus. De enige manier om er enigszins uit te ontsnappen is door de configuratie van de bestaande ideeën te veranderen, zij het bewust of onbewust, en te hopen dat deze creatieve daad uitgroeit tot een collectieve geest die sterk genoeg is om kleine deukjes te slaan in de contouren van het kader.

Hoe collectiever de geest, hoe moeilijker te kneden en hoe krachtiger de impact. Niet onbelangrijk in tijden van globalisering, met haar netwerken die verder reiken dan de actieradius van de koeriersdienst. Het zou ons spontaan moeten doen denken aan de les die Peter Parker kreeg van zijn oom: “Met grote kracht komt grote verantwoordelijkheid.” Natuurlijk is het voor deze verborgen superheld een stuk eenvoudiger, zijn kracht is niet collectief. Hij heeft er complete controle over en hoeft zich geen zorgen te maken over free-rider problemen waarbij één schakel het ganse collectief kan verrotten. Anders is het voor de verborgen helden van vandaag, de helden die lijken te verrijzen, we kunnen haast zeggen emergeren, uit de eindeloze poel gegevens die we met zijn allen de digitale wereld instuwen: de data-wetenschappers.

Het zijn deze parelduikers die kennis trachten te genereren uit big data door op zoek te gaan naar patronen, door punten te verbinden die lijken te correleren. Een onderneming niet zonder risico’s. Als alles goed gaat, dan kunnen we spreken van artificieel leren. In dit geval worden punten verbonden als was het op een transparant stukje papier. Eens de gewenste lijnstukken getekend, wordt het papier tegen het raam gehouden om te zien of de schets ook daadwerkelijk overeenkomt met wat zich achter het raam bevindt. Is dit niet het geval, dan dient de afwijking zo goed mogelijk weggewerkt te worden, waarna opnieuw de raamtest volgt. Een soort falsificatieproces dus, netjes verpakt in een algoritme die, eens gecodeerd, geen nood heeft aan een menselijke tussenkomst, zelfs niet wanneer de boom achter het raam zijn bladeren verliest.

Als alles goed gaat, want dit is niet vanzelfsprekend! Is er geen feedback, bijvoorbeeld omdat het stukje papier niet transparant genoeg is, dan is er van leren geen sprake. Dan legt het algoritme, en daarmee de data-wetenschapper, ongestoord zijn eigen wil op. Is er geen impartiële feedback, bijvoorbeeld omdat er reeds een schets op het raam getekend staat, dan zal het leren evolueren in een vooraf gedefinieerde richting. Dan dringt de data-wetenschapper, intentioneel of niet, zijn eigen doelstellingen op aan het algoritme. En als de noodzakelijke variabelen niet meetbaar zijn en daarom een beroep moet gedaan worden op afgeleiden, bijvoorbeeld omdat het tafereel achter het raam te complex is, dan kan het zijn dat het algoritme slechts een flauw afkooksel is van de realiteit. In dit geval kan zelfs de data-wetenschapper misleid worden door zijn dictatoriale schepping.

Maar terwijl deze problemen voornamelijk methodologisch van aard zijn, en bij het intelligent kiezen van toepassingensdomeinen tot op zekere hoogte kunnen vermeden worden, schuilt het grootste obstakel in het karakter van data-analyse. De poel van data is immers gebetonneerd in een afgesloten tijdssegement. Keren we terug in het verleden, dan blijkt het onmogelijk de bron te vinden. En toch weten we vanuit de chaostheorie dat de beginsituatie zijn onuitwisbare stempel drukt op al wat volgt. Zoeken we verder dan het heden, dan merken we dat ditzelfde heden meteen reeds de horizon is dat ons zicht begrenst. Het gevolg is dat het gebruik van algoritmes om individuen te beoordelen vertrekt van een situatie waarin iedereen reeds gekenmerkt wordt door een verzameling parameters en dat de analyse retrospectief tewerk gaat om tot een oordeel te komen die in vele gevallen de beginsituatie versterkt. Opnieuw is er sprake van terugkoppeling, maar nu een stuk minder democratisch. Je zal maar een Afro-Amerikaanse vrouw van bovengemiddelde leeftijd zijn in een buurt met veel werkloosheid, en geïndexeerd worden op deze parameters om bijvoorbeeld een hypotheeklening te kunnen krijgen.

Het duurt niet lang of de big data krassen een psychotische groef op ons stukje papier, een groef die veel weg heeft van een vreemde attractor. Zelfs wanneer er belangrijke individuele afwijkingen aanwezig zijn, wordt men in dezelfde spiraal meegezogen als de hypothetische groep waarmee men geïdentificeerd wordt op basis van gekozen parameters. Dit effect zou ongetwijfeld nog versterken mocht één enkel algoritme de norm worden. Een dergelijke vorm van conformisme zou slechts incestueuze relaties tussen algoritme en uitkomst toelaten. De slaap van niet-artificiële intelligentie kan monsters voortbrengen.

Laat ons dus vooral niet te snel euforisch worden van de artificiële intelligentie zoals die vandaag bestaat. Hoewel het in veel gevallen voldoende is om een lerend programma te hebben, is er in al even veel gevallen, voornamelijk van sociale aard, nood aan iets meer emergente intelligentie. Soms hebben we de moeilijk of onmogelijk te meten data nodig, om van de vervelende neveneffecten van zwakke substituten af te geraken. Soms hebben we data nodig die buiten de poel liggen, om een breder zicht te hebben op de oorsprong van de beginparameters. En soms, al was het maar om een open geest te behouden naar de toekomst toe, moeten we zelfs individuele gevallen beschouwen die buiten het bereik van elke vorm van statistische analyse vallen: de outliers.

Door retrospectief naar patronen te zoeken worden alle creatieve mutaties uit de analyse gefilterd. De elementen van de creatieve daad mogen dan al aanwezig zijn in de tegenwoordige tijd, geen enkel overzichtelijk algoritme zal voorspellen hoe deze elementen geshuffeld zullen worden tot iets nieuws. Emergente intelligentie daarentegen, het soort intelligentie dat met concepten werkt die onstaan uit het complexe samenspel van enkelvoudige data, houdt op zijn minst rekening met morele aspecten binnen de huidige tijdsgeest en hanteert doelstellingen met een antropocentrische, zelf-reflecterende inslag. Dat een dergelijke intelligentie geartificialiseerd kan worden is niet uit te sluiten en zelfs waarschijnlijk. Maar het zal via een evolutionair proces verlopen waar we als mens geen controle over hebben: een graduele opeenstapeling van wijzigingen en fouten, geïnitieerd door de algorimes zelf, waarvan de meest succesvolle aan de toekomst doorgegeven worden. Dergelijke artificiële intelligentie zal dan misschien niet langer antropocentisch georiënteerd zijn, maar cybercentrisch. We zullen zien wat de impartiële omgeving zal selecteren.

dagelijkse newsletter

take down
the paywall
steun ons nu!