ChatGPT zet extra in op zorgmarkt. Bart Scheerder van UMCG waarschuwt voor gevolgen
In dit artikel:
Bart Scheerder, AI-specialist en mede-oprichter van het AI-lab van het UMCG, trekt aan de bel nu grote AI-bedrijven steeds explicieter de zorgmarkt betreden. Waar het al normaal is geworden om ChatGPT om een recept voor je koelkast te vragen, verschillen medische vragen wezenlijk: ze raken privacy, behandeling en de keuze voor zorgaanbieders. Wereldwijd vinden dagelijks naar schatting een miljard gesprekken met ChatGPT plaats; samen met Microsoft, Google, Meta en anderen levert dat techreuzen een ongekende informatiepositie over individuen en samenlevingen op.
Scheerder waarschuwt dat de huidige chatbots medische informatie geven die betrouwbaar lijkt maar niet altijd juist is. Een belangrijke oorzaak is dat de grote taalmodellen vooral getraind zijn op Amerikaanse bronnen, inclusief farmaceutische reclame die in de VS veel vrijer is dan in Nederland. Die Amerikaanse bias kan leiden tot aanbevelingen die niet passen bij Nederlandse patiënten of zorgpraktijk, en mogelijk commerciële voorkeuren verbergen: in de toekomst zouden chatbots bijvoorbeeld gelieerde aanbieders of betaalde partners kunnen aanraden zonder transparantie over die relaties.
Recent zagen diverse aanbieders speciale AI-gezondheidsapps verschijnen (bijv. ChatGPT Health, Anthropic Claude for Health Care, Amazon One Medical). Deze combineren publieke medische kennis met persoonlijke data van wearables en medische dossiers; Amazon’s app kan zelfs afspraken inplannen en vergoedingsmogelijkheden checken. Scheerder verwacht dat Europese patiënten snel zullen volgen in het koppelen van hun gegevens — iets dat privacy- en reguleringsvragen oproept. Hij ziet de AVG (GDPR) en Europese regels als noodzakelijke drempels, en vindt het geen nadeel dat Europa trager innoveert als dat betere bescherming biedt.
Praktische consequentie voor patiënten: bij medische vragen blijft betrouwbare, lokaal gevalideerde informatie belangrijk — Thuisarts.nl wordt door hem als voorbeeld genoemd omdat advies daar door huisartsen en specialisten is goedgekeurd. Algemeen advies is voorzichtigheid: besef dat chatbots kunnen hallucineren, bevooroordeeld kunnen zijn door trainingsdata of commerciële belangen, en dat transparantie over geldstromen en datagebruik ontbreekt.
Scheerder pleit voor een wake-upcall: consumenten moeten zich bewust zijn van de risico’s en beleidsmakers moeten antwoorden formuleren — denk aan strengere eisen voor transparantie, klinische validatie van AI-gezondheidsdiensten en handhaving van privacyregels — voordat techbedrijven een onvervangbare schakel tussen patiënt en zorgverlener worden.