OpenAI promoot ChatGPT voor gezondheidsbeslissingen te midden van nauwkeurigheidszorgen
Terrill Dicki 05 mrt 2026 01:21
OpenAI benadrukt gezin dat ChatGPT gebruikt voor kankerbehandelingsbeslissingen, maar recente studies tonen aan dat AI-gezondheidstools aanzienlijke nauwkeurigheids- en veiligheidsproblemen hebben.
OpenAI publiceerde deze week een casestudy over een gezin dat ChatGPT gebruikte om zich voor te bereiden op de kankerbehandelingsbeslissingen van hun zoon, waarbij de AI-chatbot wordt gepositioneerd als aanvulling op medisch advies van artsen. De timing roept vragen op gezien het groeiende bewijs dat AI-gezondheidstools aanzienlijke betrouwbaarheidsproblemen hebben.
Het promotiestuk, uitgebracht op 4 maart, beschrijft hoe ouders ChatGPT gebruikten naast het oncologieteam van hun kind. OpenAI presenteert dit als verantwoord AI-gebruik—als aanvulling op en niet als vervanging van medische expertise.
Maar het rooskleurige verhaal botst met ongemakkelijke onderzoeksbevindingen. Een studie gepubliceerd in Nature Medicine die OpenAI's eigen "ChatGPT Health"-product onderzocht, vond aanzienlijke problemen met nauwkeurigheid, veiligheidsprotocollen en raciale vooroordelen in medische aanbevelingen. Dat is geen klein voorbehoud voor een tool die mensen mogelijk gebruiken bij het nemen van levensbepalende beslissingen over kankerbehandeling.
Het nauwkeurigheidsprobleem
Onafhankelijk onderzoek schetst op zijn best een gemengd beeld. Een studie van Mass General Brigham ontdekte dat ChatGPT ongeveer 72% nauwkeurigheid behaalde over medische specialismen, oplopend tot 77% voor einddiagnoses. Klinkt redelijk totdat je bedenkt wat er op het spel staat—zou je in een vliegtuig stappen met 23% kans dat de piloot een kritieke fout maakt?
Gezondheidszorg AI-bedrijf Atropos leverde nog grimmiger cijfers: grote taalmodellen voor algemeen gebruik bieden slechts 2% tot 10% van de tijd klinisch relevante informatie voor artsen. De kloof tussen "soms nuttig" en "betrouwbaar genoeg voor kankerbeslissingen" blijft enorm.
De American Medical Association heeft er geen doekjes om gewonden. De organisatie raadt artsen af om LLM-gebaseerde tools te gebruiken voor klinische beslissingsondersteuning, onder verwijzing naar nauwkeurigheidszorgen en het ontbreken van gestandaardiseerde richtlijnen. Wanneer de AMA artsen vertelt uit de buurt te blijven, zouden patiënten waarschijnlijk aandacht moeten schenken.
Wat ChatGPT niet kan
AI-chatbots kunnen geen lichamelijke onderzoeken uitvoeren. Ze kunnen de lichaamstaal van een patiënt niet lezen of de intuïtieve vervolgvragen stellen die ervaren oncologen gedurende decennia ontwikkelen. Ze kunnen hallucineren—zelfverzekerd klinkende informatie genereren die volledig verzonnen is.
Privacyzorgen voegen nog een laag toe. Elk symptoom, elke angst, elk detail over de kanker van een kind dat in ChatGPT wordt getypt, wordt data waarover gebruikers beperkte controle hebben.
OpenAI's casestudy benadrukt dat het gezin werkte "naast deskundige begeleiding van artsen." Die nuancering is belangrijk. Het gevaar is niet dat goed geïnformeerde patiënten betere vragen stellen—het is dat kwetsbare mensen in crisis mogelijk te veel vertrouwen op een tool die vaker fout zit dan de marketing suggereert.
Voor crypto-investeerders die OpenAI's ondernemingsambities volgen, signaleert de gezondheidszorgpush een agressieve expansie naar sectoren met hoge inzet. Of toezichthouders AI-bedrijven zullen tolereren die medische besluitvormingstools promoten met gedocumenteerde nauwkeurigheidsproblemen blijft een open vraag richting 2026.
Afbeeldingsbron: Shutterstock- openai
- chatgpt
- ai gezondheidszorg
- medische ai
- gezondheidstechnologie



