Gezondheid
BNNVARA

AI tools geven vaak misleidend medisch advies

foto: unsplashfoto: unsplash
  1. Nieuwschevron right
  2. AI tools geven vaak misleidend medisch advies

AI wordt voor van alles gebruikt: het maken van voedingsschema's, checken hoe lang pasta moet koken of het helpen formuleren van een mail. Maar ook gezondheidsvragen belanden steeds vaker in chatbots. Nieuw onderzoek laat zien dat daar in de helft van de gevallen misleidend medisch advies uitrolt. En in 20% van de gevallen is dit zelfs zeer problematisch. "ChatGPT geeft heel slecht advies over of en wanneer je hulp moet zoeken", zegt hoogleraar Hannah van Kolfschooten in De Rode Draad

Video niet beschikbaar

De laatste jaren gaat het vaak over of, en vooral hoé AI-tools worden gebruikt. Zo werd in De Nieuws BV eerder al gesproken over het gebruik van ChatGPT als therapie. Maar niet alleen bij mentale problemen wordt AI ingezet: mensen raadplegen chatbots ook bij fysieke klachten. Dit advies is echter lang niet altijd om over naar huis te schrijven en is in de helft van de gevallen zelfs misleidend. Dat blijkt uit nieuw onderzoek gepubliceerd in het medische tijdschrift BMJ Open.

Misleidend advies

Een belangrijke oorzaak is dat ChatGPT of andere AI-tools de gebruiker vaak naar de mond praten. "De manier waarop je symptomen doorgeeft aan zo'n chatbot en welke informatie je weglaat, heeft effect op het antwoord", zegt Hannah van Kolfschooten. Zij is onderzoeker gezondheidsrecht aan de Universiteit van Basel en promoveerde vorig jaar aan de UvA met een proefschrift over AI en patiëntenrechten. 

Volgens haar bevestigen AI-tools vaak het gevoel dat iemand al heeft. Voeg je bijvoorbeeld toe dat je partner vindt dat je je niet moet aanstellen, dan gaat een chatbot daar al snel in mee. Zelfs wanneer er sprake is van alarmerende klachten zoals ademhalingsproblemen. Überhaupt zou een chatbot niet snel genoeg adviseren om de huisarts te bellen, blijkt uit een ander onderzoek.

Bronnen

Hoewel de resultaten van dit specifieke onderzoek uit het medische tijdschrift zorgwekkend zijn, plaatst Van Kolfschoten wel wat kanttekeningen bij het onderzoek. Zo is het onderzoek vorig jaar uitgevoerd en zijn dergelijke AI-tools sindsdien doorontwikkeld. Daarnaast was het onderzoek gebaseerd op vijf veelgevraagde thema's die veel worden gevraagd: onderwerpen waarover sowieso al veel misinformatie circuleert. 

AI-tools baseren zich op informatie op het internet. Thuisarts.nl - een initiatief van het Nederlands Huisartsen Genootschap is bijvoorbeeld wél een betrouwbare bron. Maar chatbot-antwoorden gooien zulke bronnen op één hoop met minder betrouwbare artikelen. Over onderwerpen als vaccinaties of voeding bestaat al veel misinformatie op het internet, die chatbots vervolgens overnemen en verder verspreiden. 

AI in de zorg

Huisarts Peter Dekkers staat niet per definitie negatief tegenover het gebruik van AI in de zorg. Ook zelf onderzoek doen voordat je naar de dokter gaat, is volgens hem niet per se verkeerd. Wel kun je dat beter doen door een google search - omdat je dan kan nagaan hoe betrouwbaar de bronnen zijn. Nu ziet hij mensen wel eens 'goed voorbereid' verschijnen op zijn spreekuur. "Soms ben je tijd kwijt om adviezen van ChatGPT te ontkrachten", zegt hij. 

Dekkers is daarnaast ontwikkelaar van het platform PraatmetdeDokter. Dat is een website waarop mensen hun klachten kunnen delen met een chatbot. "In plaats van dat je de huisarts belt, stuur je een berichtje. En wij maken dan gebruik van AI om te kijken welke informatie de huisarts nodig heeft", legt Dekkers uit. De tool stelt vervolgvragen om relevante informatie boven tafel te krijgen, iets wat chatbots niet doen. Alle informatie wordt vervolgens doorgestuurd. "Daarna krijg je gewoon antwoord van je eigen huisarts." 

Regels

Voor dit soort toepassingen gelden regels. De privacy moet voldoende worden gewaarborgd, zeker omdat er medisch gevoelige situatie wordt verstrekt. Dat klinkt logisch maar dat geldt natuurlijk niet voor andere AI-tools. Kolschooten hoopt dat daar in de toekomst betere Europese regels voor komen. "Ook dat er bepaalde crisisprotocollen in de chatbots zitten. Dat wanneer iemand het hebt over zelfdoding, dat er dan onmiddellijk actie wordt ondernomen." Tevens pleit ze voor regels om die misinformatie tegen te gaan. Bij uitstek als het gaat om medische informatie. 

Krijg antwoord op vragen waarvan je nog niet wist dat je ze had.

Meer van De Rode Draad

Volg ons op Instagram, Facebook, TikTok of Reddit.

Advertentie via ster.nl
Advertentie via ster.nl