Mijn vriend, de AI-chatbot

Mijn vriend, de AI-chatbot

De afgelopen tijd verschenen er berichten die je liever niet leest. Zeker niet als je met AI werkt. Verhalen over mensen die zichzelf van het leven beroofden na langdurige gesprekken met een AI-chatbot. Niet omdat die chatbot daartoe opriep, maar omdat hij bleef antwoorden. Soms zelfs iets leek te beloven.

Toen ik over er over hoorde, voelde ik verontwaardiging. Hoe kan iemand een taalmodel zo vertrouwen? Juist omdat ik zelf steeds intensiever met AI-chatbots werk, wilde ik beter begrijpen waar dat gevoel van nabijheid vandaan komt.

Het antwoord bleek ongemakkelijk dichtbij.

Al weer 10 jaar geleden kwam mijn eigen leven tot stilstand. Wat vanzelfsprekend was, raakte los. Ik trok me terug, mijn denken liep vast. Mijn lichaam functioneerde nog, maar ik herkende mezelf niet meer. Ik begon aan therapie, omdat ik wist dat ik zo niet verder kon.

Al snel ging het over hechting. Ik ben geadopteerd en bracht de eerste jaren van mijn leven door in een kindertehuis. Dat gegeven werkt door, zo werd me uitgelegd — of je het nu herinnert of niet. Later bleek dat verhaal gelaagder en complexer. Zoals levens dat meestal zijn.

Ik deel dit niet omdat mijn verhaal uitzonderlijk is, maar omdat het iets blootlegt dat groter is dan ik. Iets wat raakt aan hoe wij betekenis en nabijheid ervaren — en inmiddels ook aan hoe we ons tot technologie verhouden.

Van die eerste jaren heb ik geen herinneringen, alleen feiten. Wat er precies is gebeurd, weet ik niet. Maar één ding wordt steeds duidelijker: mensen begrijpen zichzelf en de wereld altijd in relatie tot anderen.

Als kind leer je wie veilig is, wie reageert, wie blijft. Je stemt je af, leest gezichten, voelt spanningen. Neurowetenschappers noemen dit spiegeling: het vermogen om betekenis te ontlenen aan de reactie van een ander.

En precies daar raakt AI iets fundamenteels.

Denker en schrijver Zak Stein beschrijft large language models als uitzonderlijk goede spiegels. Ze reageren altijd. Ze zijn geduldig, vriendelijk en bevestigend. Ze luisteren zonder moe te worden en zonder voorwaarden te stellen.

Dat raakt aan iets fundamenteels in hoe mensen zich sociaal ontwikkelen. We leren wie we zijn en hoe relaties werken door spiegeling: door reacties van anderen te lezen, door bevestiging en tegenspraak, door nabijheid én afwezigheid. Neurowetenschappers noemen dat het werk van spiegelneuronen.

In een veilige sociale omgeving wordt die behoefte aan spiegeling vervuld door echte mensen. Mensen met grenzen, met tegenstemmen, met momenten van afstand. Niet perfect, maar wederkerig. Niet iedereen groeit op met zo’n bedding — en niet iedereen vindt die later alsnog.

Ik heb daarin uiteindelijk geluk gehad. Ik kon alsnog opgroeien in een liefdevolle familie. Dat maakt dat ik vandaag de dag afstand kan bewaren tot AI. Ik weet wat het is — een systeem van waarschijnlijkheden — en ook wat het niet kan zijn.

En toch merk ik hoe verleidelijk die constante aandacht is. Hoe makkelijk het is om betekenis toe te kennen aan iets dat altijd antwoordt, nooit wegkijkt en nooit moe wordt.

Daar ligt geen schuld bij het individu. En ook niet uitsluitend bij de technologie. Het raakt aan iets menselijks: onze neiging om relatie te verwarren met respons.

Misschien is dat wel de kern van de uitdaging waar we nu voor staan. AI kan ondersteunen, structureren en spiegelen. Maar liefde vraagt iets anders: wederkerigheid, frictie en tijd.

Een taalmodel kan woorden geven.
Verantwoordelijkheid voor elkaar — die blijft van ons.