Wetenschap & Techniek
EO

Een plekje of een pijntje? Vraag vooral niét aan ChatGPT wat het is, vertelt deze AI-expert: 'Het is link'

foto: Pexels
  1. Nieuwschevron right
  2. Een plekje of een pijntje? Vraag vooral niét aan ChatGPT wat het is, vertelt deze AI-expert: 'Het is link'

ChatGPT wordt wel eens als vervanging van de huisarts gebruikt, maar daarvoor is de AI-tool niet betrouwbaar genoeg. Dat zegt AI-expert Marietje Schaake in De Ongelooflijke Podcast (EO). "Mensen nemen de medische informatie van een chatbot voor waar aan en laten het niet checken bij een arts. Dat kan gevaarlijk zijn."

#298 - Hoe gevaarlijk (of geweldig) is AI nou eigenlijk? (met Marietje Schaake en Stefan Paas) - De Ongelooflijke Podcast

AI-expert Marietje Schaake was van 2009 tot 2019 Europarlementariër voor D66 en werkt nu in het hart van Silicon Valley. Ze is daar als onderzoeker verbonden aan de topuniversiteit Stanford University. Ze maakt zelf weinig gebruik van AI-chatbots, vertelt ze in de podcast. En als ze een chatbot wel gebruikt, is dat vaak voor haar wetenschappelijke onderzoek om te zien hoe ver AI nu is.

"Een heleboel dingen kunnen die chatbots heel goed, maar op een aantal punten gaat het mis", zegt Schaake. Bijvoorbeeld als mensen medische vragen stellen aan een AI-chatbot. "Mensen nemen de medische informatie voor waar aan en gaan niet naar een arts. Of ze nemen allerlei maatregelen die niet passen bij de ziekte die ze in werkelijkheid hebben." En daarachter zit nog een ander risico, want al die gevoelige data worden opgeslagen op buitenlandse servers.

'Zoontje werd opeens ziek'

Presentator David Boogerd vertelt dat hij zelf een chatbot om medische informatie heeft gevraagd, toen zijn zoontje opeens blauwe plekken kreeg. Ze konden terecht bij de spoedeisende hulp in het ziekenhuis, maar moesten nog een paar uur wachten. "Ik wilde als vader snel meer duidelijkheid. Je denkt gelijk dat het ernstig is", zegt Boogerd.

Hij deelde een foto met Gemini, de chatbot van Google, gaf een korte omschrijving en vroeg wat het kon zijn. Gemini gaf "een kraakheldere analyse" en zei dat het niet levensbedreigend was. Na een controle in het ziekenhuis bleek dat de chatbot het goed had gezien: "Het was een ziekte die maar 150 tot 200 Nederlandse kinderen per jaar hebben. Dat vond ik best knap en indrukwekkend. Je kunt niet altijd een arts bellen, dus ik was hier heel positief over. Gemini zei ook: ik ben geen arts, je moet nog naar een arts gaan."

'Veel onjuiste informatie'

Dat Boogerd nu een positieve ervaring heeft is fijn, zegt Schaake. "Maar er zijn ook mensen met negatieve ervaringen." Wereldwijd gebruiken mensen chatbots voor medische informatie, maar het probleem is dat veel mensen daarna niet voor een extra controle naar het ziekenhuis kunnen. "Sommige mensen hebben geen geld om naar een arts te gaan. In Amerika zijn veel mensen onverzekerd en kost een bezoek aan het ziekenhuis bijna altijd veel geld."

Schaake vertelt dat de Universiteit van Oxford onderzoek heeft gedaan naar de medische informatie die chatbots delen. "Daaruit bleek dat er best veel mis is met de informatie die wordt gedeeld. En het kan ook gevaarlijk zijn." Onderzoekers deden een experiment om de chatbot te testen. Ze verzonnen een niet-bestaande huidaandoening: "Die aandoening werd zo, hup, opgenomen in de resultaten van de chatbot. Het is linke soep."

Advertentie via ster.nl
Advertentie via ster.nl