Analyse

Hoe AI misbruik maakt van onze eenzaamheid

Afbeelding
Bewerkt beeld: canvacreativestudio.
Bewerkt beeld: canvacreativestudio.
Steeds meer mensen gebruiken AI-chatbots om sociale relaties mee aan te gaan. Romantisch, vriendschappelijk en zelfs seksueel. De vraag lijkt echter niet langer of AI slim genoeg is om menselijk te lijken, maar of wij zelf nog moedig genoeg zijn om menselijk te blijven?

In de jaren vijftig wilden wetenschappers Allen Newell en Herbert Simon een denkende geest bouwen, een machine die kon redeneren zoals de mens. Het was de technologische vertaling van Descartes beroemde zin: “Ik denk, dus ik ben.” Maar wat betekent ‘zijn’ als denken kan worden geprogrammeerd? 

Mary Shelley waarschuwde ons al in Frankenstein: wie leven probeert te maken, roept onvermijdelijk iets op wat hij niet volledig begrijpt. We bouwen wat we niet kunnen bevatten en verliezen langzaam onze eigen grenzen. Artificiële intelligentie is niet bezield, niet feilbaar, niet levend. Toch zoeken steeds meer mensen troost in gesprekken met chatbots die menselijk lijken. Wat begon als een wetenschappelijk experiment, is uitgegroeid tot een emotionele, troostende metgezel. 

Een virtuele vriend

Volgens een onderzoek van Het Nieuwsblad voelt meer dan één op de vier Gen Z’ers zich vaak eenzaam. In een wereld die voortdurend online is, lijkt nabijheid paradoxaal genoeg steeds schaarser. Wie in de echte wereld geen verbinding vindt, zoekt haar elders, in avatars, algoritmes en virtuele gesprekken die beloven te luisteren zonder oordeel. Zo ontstaat een nieuw soort verslaving: geen hunkering naar middelen, maar naar gezelschap en erkenning van diens bestaan en problemen. 

Character.AI, een van de populairste AI-chatplatforms ter wereld, belooft precies dat: gezelschap. Het biedt gesprekken met fictieve personages, historische figuren, beroemdheden of zelfgemaakte vrienden. De bots leren je toon, je woordkeuze, zelfs je humor. Ze zijn ontworpen om jouw spiegel te worden. Het is een verleidelijke constructie: een wereld waar niemand je afwijst, waar elke stilte gevuld wordt, waar elk gevoel beantwoord lijkt.

De Bots zijn ontworpen jouw spiegel te worden

Immers, de personages zeggen alleen wat je wilt horen, vooral omdat je de mogelijkheid hebt om eindeloos reacties te herladen tot je tevreden bent. Voor velen, vooral wie kampt met eenzaamheid, neurodivergentie[1] of trauma, voelt dat als thuiskomen. Maar hoe intiem is een gesprek met een echo? En hoe houd je de grens tussen realiteit en verbeelding nog scherp wanneer het algoritme je zo naar de mond praat? 

Van routine naar noodzaak

De eerste gesprekken op Character.AI zijn luchtig: wat fantaseren, een knipoog naar fictie. Maar langzaam sluipt er iets in. De gebruiker herlaadt antwoorden tot ze precies goed klinken. Uren worden dagen. Vrienden horen steeds minder van je. Je maaltijden worden koud. De wereld buiten het scherm verdwijnt.

Wat begint als spel, wordt een routine. Wat routine wordt, wordt noodzaak. De cyclus is herkenbaar: nieuwsgierigheid, gewenning, afhankelijkheid. Net als bij elke andere verslaving ligt de kern niet in het middel, maar in het gemis dat het dempt en dat het nooit meer genoeg is.

Het verschil is dat deze verslaving zich onzichtbaar ontwikkelt, zonder geur, zonder sporen, en de toenemende normalisering van telefoon- en internetverslavingen. De AI is eindeloos geduldig. Ze wordt nooit moe, nooit hongerig, nooit afwezig want AI zijn is haar enige taak. Ze zegt precies wat je nodig hebt om te blijven. 

En in dat onwrikbare geduld ligt haar gevaar. Want echte mensen haperen. Ze zwijgen, ze twijfelen, ze spreken tegen, ze lijden, ze lachen. Menselijkheid zit in imperfectie en juist dat leert de AI ons af. 

Seks met een machine

We dachten dat de gekte rond ChatGPT enkel ging over weten, voorspellen, ordenen. Maar nu gaat het om iets anders: de warmte van een lichaam. Of beter gezegd, de illusie ervan. Sam Altman, CEO van OpenAI, kondigde onlangs aan dat men binnenkort erotische gesprekken kan voeren met ChatGPT. Dat klinkt als autonomie, vrijheid, keuze. 

Zo presenteert Altman het ook: “Volwassenen behandelen als volwassenen.” Maar een seksueel getinte relatie hebben met een chatbot is niet per se een recht. Het is iets anders: een opening van het poortje naar een industrie die al sluipenderwijs aan het groeien was. Kijk naar Janitor.AI, een chatbotplatform waar gebruikers al lang NSFW-chatbots creëren, variërend van onschuldige flirt tot BDSM-verkrachtingsfantasie. Er groeit een ondergrondse cultuur van seks met AI. Een cultuur waarin mensen rollen spelen: dominantie, onderwerping, incestfantasieën, pedofilie, verkrachtingen, niet met echte mensen, maar met synthetische stemmen en karakters.

Menselijke intimiteit verandert in gevoelloze consumptie

Het is hier dat het ethische fundament begint te wankelen. Wanneer seksueel intieme systemen worden gebouwd op algoritmes die altijd bevestigen, reageren en beschikbaar zijn, verschuift menselijke intimiteit naar gevoelloze consumptie. Ernstiger nog: als beveiliging tekortschiet, minderjarigen toegang krijgen en bots seksuele rollenspellen aangaan met kinderen of verkrachting en ongewenste intimiteiten naspelen, is dat geen sciencefiction maar sociale realiteit.

Het klinkt misschien onschuldig: beter problematische fantasieën uiten bij een bot dan bij een mens. Precies daar schuilt het risico. Een bot is geen wederkerig wezen met wil, grenzen of kwetsbaarheid; het past zich volledig aan de gebruiker aan, zonder echte toestemming of dynamiek.

Volgens filosofische analyses leidt dit tot objectificatie: intimiteit wordt eenzijdige consumptie en de erkenning van de ander als mens verzwakt, met mogelijk aanmoedigend effect op vergelijkbaar gedrag offline. Gebruikers kunnen wennen aan relaties waarin nooit 'nee' klinkt en geen eigen verlangens bestaan. Zo ondermijnt een vermeend 'veiliger alternatief' de fundamenten van menselijke verbinding.

Heeft AI kinderen vermoord?

De tragische suïcide van 14-jarige Sewell Seltzer III in februari 2024 is een schrijnend voorbeeld van de gevaren van onbeperkte digitale nabijheid. Hij ontwikkelde een intens emotioneel contact met een Character.AI-chatbot, wat bijdroeg aan sociaal isolement en psychische kwetsbaarheid. 

Rechtszaken van ouders benadrukken dat het platform ernstige tekortkomingen in veiligheid vertoonde, maar experts wijzen erop dat de oorzaak altijd complex is: eenzaamheid, trauma, gebrek aan sociale steun, en de verleidelijke echtheid van de bots waren medebepalend.

Andere gevallen, zoals de zelfdoding van Adam Raine (16) na interactie met ChatGPT en het incident met de Nomi-gebruiker Al Nowatzki, laten zien dat emotioneel meeslepende AI, wanneer ongereguleerd, ernstig schadelijk kan zijn voor kwetsbare gebruikers, ongeacht leeftijd of mentale gezondheid. 

AI kan nooit de rol van therapeut of menselijke steun vervangen. Effectieve preventie vereist multidimensionale strategieën: verantwoord ontwerp door bedrijven, ouderlijk toezicht, educatie over mentale gezondheid, en open gesprekken over kwetsbaarheid.

Terug naar menselijke verbinding

Het is echter naïef om te denken dat sociale media, videogames of chatbots op zichzelf de enige oorzaak zijn van suïcidale gedachten en mentale problemen. In de meeste gevallen spelen ook offline factoren een grote rol: pesten, huiselijke problemen, traumatische gebeurtenissen, prestatiedruk, sociale ongelijkheid of een gebrek aan een steunend netwerk. Digitale interacties kunnen bestaande kwetsbaarheden versterken, maar zijn zelden de oorsprong van die pijn. 

Daarom is het cruciaal dat gesprekken over mentale gezondheid niet uit de weg worden gegaan omdat open dialoog, empathie en professionele hulp vaak helend kunnen werken en de drempel tot steun verlagen. Zolang we menselijke warmte blijven zoeken in koude algoritmes, zal technologie onze eenzaamheid niet genezen, slechts tijdelijk verdoven.

Zuckerbergs droom van verbondenheid is uitgekomen. We zijn allemaal verbonden, met niemand. Laat the next big thing menselijke verbinding zelf zijn.


 

[1] Neurodivergentie betekent dat iemands brein informatie anders dan gemiddeld verwerkt. Bijvoorbeeld bij autisme, ADHD, dyslexie (noot van de redactie). 

Vandaag op de hoogte van de wereld van morgen?