De community ruimte is een vrije online ruimte (blog) waar vrijwilligers en organisaties hun opinies kunnen publiceren. De standpunten vermeld in deze community reflecteren niet noodzakelijk de redactionele lijn van DeWereldMorgen.be. De verantwoordelijkheid over de inhoud ligt bij de auteur.

Over de waarschijnlijkheid en de mogelijkheid van een technologische singulariteit op basis van AGI’s

Over de waarschijnlijkheid en de mogelijkheid van een technologische singulariteit op basis van AGI’s

donderdag 10 maart 2011 15:14
Spread the love

In het artikel “Why an Intelligence Explosion is Probable” betogen de auteurs dat de bezwaren tegen de mogelijkheid van een “intelligentie explosie”, soms ook wel technologische singulariteit genoemd, niet sterk genoeg zijn.

Tegen de waarschijnlijkheid wil ik niets inbrengen en daarmee steun ik dan ook het betoog van de schrijvers.

Maar ik denk dat ze een paar cruciale blinde vlekken hebben als het gaat om de aard van deze intelligentie.

De auteurs veronderstellen dat technologische ontwikkeling een proces is dat exponentieel vooruit gaat. Daarmee wordt de aard van de ontdekkingen dan ook onvoorspelbaar.

Niettemin gaat het uit van een technologische vooruitgang.

Ze betogen dat er in de nabije toekomst een stuk hardware zal worden ontwikkeld, dat door intelligentie zichzelf zal kunnen heruitvinden, waardoor zich veel sneller zal ontwikkelen dan zich dit bij mensen doet.

De basis van mijn kritiek ligt in de definitie van de ultra-intelligentie. De auteurs citeren Good: “Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever.”

Daarmee is intelligentie niet gedefinieerd. Zo’n artificiële intelligentie (de auteurs spreken van een AGI) zou dan bepaald worden vanuit een factor H (menselijke intelligentie), bijvoorbeeld 100H of 1000H.

Hiermee wordt intelligentie niet gedefinieerd en wordt de intelligentiesingulariteit of -explosie gedefinieerd vanuit een kwantitatieve definitie van een vaag begrip (100H).

Mijn bezwaren zijn de volgende:

Wetenschappelijke kennis gaat niet lineair vooruit. Op de ontdekking van de infinitissimaalrekening volgt niet noodzakelijk binnen tijd t-t1 de relativiteitstheorie. Wetenschappelijke ontwikkeling verloopt discontinu. De aard van de kennis is bovendien nog eens afhankelijk van sociale factoren. Wat onderzocht wordt is een ethische vraag. Wetenschappelijke kennis is dus ook fundamenteel een vraag naar macht en ethiek.

Wat wetenschappelijke kennis ook niet doet is een beschrijving geven van de werkelijkheid. De wetenschap dient enkel een pragmatische functie, die zich uit in de hulpmiddelen (technologie) die een functie hebben die de mens daaruit ontwikkelt.

Intelligentie is dus een functionele kwestie. Het superintelligente wezen zal altijd enkel beperkt blijven door de problemen waar de ontwerper van verlangt dat het op kan lossen. De aard van de AGI is dus afhankelijk van de bedoeling die de wetenschapper die (waarschijnlijk volgens de wetten van de serendipiteit) de eerste succesvolle AGI zal uitvinden.

Echte intelligentie ontwikkelt zich volgens mij altijd in een omgeving. Dat beweren de auteurs ook, maar zij onderschatten volgens mij de rol van de omgeving. Ze zien de interactie tussen omgeving en AGI meer als een “obstakel” voor snelle ontwikkeling en niet als de mogelijkheidsvoorwaarde van intelligentie. Het nature-nurture debat speelt hier op de achtergrond mee. De hedendaagse ontwikkelingen en filosofische inzichten in de biologie laten zien dat veel meer van hoe wij zijn “nurture” is dan rond de 19e eeuw werd aangenomen.

Dan het punt van de discontinuïteit. Alle grote singulariteiten uit de biologische geschiedenis zijn discontinu en contingent. Ze volgen niet uit een noodzakelijke evolutionaire stap.

Het voorspellen van een discontinuïteit is wat mij betreft dus principieel onmogelijk. Daarmee lijkt een technologische singulariteit niet in principe waarschijnlijker dan een singulariteit op een ander vlak. Creativiteit is onvoorspelbaar.

Een AGI kan dus enkel waardevol zijn als er aan twee voorwaarden wordt voldaan: de genetische intelligentie moet vooral de mogelijkheid open laten te leren. Leren is immers een noodzakelijk onderdeel van intelligentie. De AGI moet volledige vrijheid krijgen in de omgeving en zo min mogelijk beperkt worden door vooringenomen doelen. De tweede voorwaarde is dat de AGI in staat is vrije denksprongen te maken, “creatief”  is in de onverwachte en menselijke zin van het woord. Dit hebben we tot op heden niet gezien. Daarmee is het geen structurele onmogelijkheid in de AGI (daar wil ik niet princiëel sceptisch zijn, integendeel). Maar voor een computer om tot paralogisch denken te komen (term die ik ontleen aan Lyotard; het doen van een niet lineair, niet logische, kwalitatieve denksprong; kortom een serendipiteit) is iets wat enkel een mogelijkheid is en waar volgens mij niet “naartoe ontwikkeld” kan worden. De kans dat dit pas ontstaat na duizenden jaren metabolisme is volgens mij niet kleiner dan dat zich dit binnen een tijdspanne van 50 jaar ontwikkelen kan. De omgeving is nu eenmaal traag, hoe snel de ontwikkeling van technologie in cognitie ook zal gaan. En de interactie met de omgeving is een noodzakelijke voorwaarde om tot intelligentie te komen die paralogisch werkt.

De vraag moet zijn: Wat is de draagkracht van intelligentie van de omgeving?

take down
the paywall
steun ons nu!