Kan ChatGPT je vriend, coach of zelfs psycholoog zijn? Bij Eva werd het laatst besproken met Alexander Klöpping, die ChatGPT vroeg wat zijn diepste angsten zijn. Klöpping was geraakt door het antwoord van ChatGPT. Rewind bespreekt op Instagram het fragment bij Eva met filosoof Marijn Sax (UvA). Hij doet onderzoek naar digitale manipulatie en misleiding - ook op het gebied van AI. Marijn is kritisch op de manier waarop vaak in de media wordt gesproken over ontwikkelingen op het gebied van AI. Rewind heeft vervolgens Alexander Klöpping om een reactie op Marijns opmerkingen gevraagd.

Wederhoor Alexander Klöpping op video Rewind over ChatGPT als psycholoog van 11 april 2025

Dank voor je bericht en de mogelijkheid om te reageren op de kritiek van Marijn Sax. Na het bekijken van het transcript van het Eva-fragment wil ik graag enkele belangrijke onjuistheden in de karakterisering van mijn standpunt rechtzetten.

Allereerst: ik heb nergens beweerd dat "ChatGPT kan functioneren als een psycholoog", zoals Marijn stelt. In het fragment beschrijf ik juist een maatschappelijk fenomeen dat ik observeer - namelijk dat mensen zélf AI-tools op deze manier beginnen te gebruiken. Ik benadruk expliciet dat het gaat om "het simuleren van begrip en empathie", waarbij ik specifiek zeg: "Het is simuleren. Dat is belangrijk om erbij te zeggen."

Wat ik wel zeg in het transcript:

  • Ik deel mijn persoonlijke ervaring met ChatGPT's analyse van mijn angsten, waarvan ik "stil viel" en waarvan ik zeg "het raakt me echt".
  • Ik beschrijf dat mensen AI al op deze manier gebruiken: "Ik hoor ook steeds meer in mijn omgeving dat mensen ChatGPT niet alleen gebruiken als een ding waar je teksten mee kan samenvatten. Maar dat ze het een beetje benaderen als een vriend."
  • Ik benoem expliciet dat het gaat om simulatie: "Het is heel goed in het simuleren van begrip en empathie. Het is simuleren. Dat is belangrijk om erbij te zeggen."
  • Ik plaats dit in context: "We hebben tekort aan psychologen in Nederland. Het is niet zo gek dat mensen hun heil zoeken online."

Marijn's kritiek dat ik een "volstrekt triviaal, oppervlakkig inzicht" van ChatGPT zou presenteren als bewijs dat het een psycholoog kan vervangen, is onjuist. Ik deel mijn persoonlijke emotionele reactie op wat de AI mij vertelde, zonder daarmee te claimen dat het een volwaardige psychologische analyse betreft.

Mijn overkoepelende punt in het fragment (en alle Eva-afleveringen) is juist dat we als samenleving de effecten van snel verbeterende taalmodellen serieuzer moeten nemen en aan scenario-planning moeten doen, omdat de gevolgen ingrijpend kunnen zijn. Ik pleit voor een proactieve, genuanceerde maatschappelijke discussie over deze ontwikkelingen.

Ik stel vast dat:

  1. Mensen AI-systemen nu al als psychologische hulpbron gebruiken, ongeacht of professionals dit aanbevelen. Dit is een observatie, geen aanbeveling.
  2. We rekening moeten houden met de impact van AI op diverse beroepen in de toekomst, inclusief bepaalde aspecten van psychologisch werk.

Marijn's bewering dat ik "de psycholoog heel dom en infantiel maak" is simpelweg niet terug te vinden in mijn woorden. Integendeel, ik beschrijf juist de complexiteit van de situatie en stel kritische vragen over of we als maatschappij klaar zijn voor deze technologische ontwikkelingen.

Het is jammer dat Marijn mijn bijdrage zo heeft misverstaan, terwijl ik juist wil bijdragen aan een genuanceerd debat over deze belangrijke ontwikkelingen.

Overigens, als Marijn het feitelijke transcript even had voorgelegd aan ChatGPT en had gevraagd: "is mijn kritiek gebaseerd op daadwerkelijke uitspraken van van Alexander Klöpping in het TV-programma Eva?", was deze discussie misschien minder op de persoon gespeeld en meer over de inhoud. En dat is een discussie die ik wél toejuig.

NB. In zijn podcast over AI praat Klöpping over onze vraag mbt wederhoor en vertelt hij dat hij dit antwoord ook door ChatGPT heeft laten genereren, hier terug te luisteren vanaf minuut 01:00.  

Dit vind je ook interessant