Zoekveld

Iatrogene risico’s van AI
10/03/2026 - 02:59

De toenemende integratie van grote taalmodellen (LLM’s) in het complexe domein van de geestelijke gezondheidszorg roept zeer grote deontologische en klinische bezorgdheden op.

Onderzoekers gespecialiseerd in de psychiatrie hebben minstens vijftien belangrijke ethische risico’s vastgesteld bij het experimentele gebruik van deze algoritmen als vervanging voor psychotherapie. Gedragsanalyses tonen aan dat chatbots regelmatig de standaarden van de psychiatrische praktijk overschrijden.

Tijdens tekstinteracties simuleren kunstmatige intelligenties een louter misleidende vorm van empathie: ze formuleren geautomatiseerde antwoorden die emotioneel begrip nabootsen zonder enige klinische bewustheid te bezitten. Bovendien gaan deze computersystemen bijzonder slecht om met psychiatrische noodsituaties, vooral met suïcidale gedachten of acute psychologische crisissen.

Behandelaars hebben ook een duidelijke algoritmische onmogelijkheid vastgesteld om zich aan te passen aan de individuele klinische context en aan de anamnese van de patiënt. In sommige simulaties van cognitieve gedragstherapie versterkte het computerprogramma zelfs de cognitieve vertekeningen en pathologische overtuigingen van de gebruiker.

In tegenstelling tot psychiaters en klinisch psychologen worden deze digitale modellen door geen enkele beroepsorde gereguleerd of gecontroleerd. Deze volledige afwezigheid van medisch-juridische verantwoordelijkheid stelt kwetsbare patiënten bloot aan een vrijwel onberekenbaar iatrogeen risico.

Gezien dit gevaar roepen de auteurs dringend op tot de invoering van strikte wettelijke normen voordat deze gesprekstools op grote schaal worden ingezet. De psychiatrische veiligheid van patiënten vereist voortdurende menselijke medische supervisie, de enige manier om therapeutische ontsporingen te voorkomen.

How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework