AI kan fouten maken bij medische vragen
Vertrouw niet blindelings op technologie. Artificiële intelligentie (AI), zoals ChatGPT, Gemini en Copilot, worden steeds vaker gebruikt voor medische vragen en advies over medicatie. Onderzoek van de Universiteit Antwerpen toont aan dat veel AI-modellen veelbelovend zijn, maar waarschuwt voor gevaarlijke fouten zoals verkeerd advies over medicatie.
AI-modellen kunnen nuttig zijn voor eenvoudige vragen, maar ze zijn niet foutloos en begrijpen de medische context niet. Vertrouw nooit blindelings op AI voor gezondheidsadvies en bespreek altijd je vragen met een gekwalificeerde zorgverlener. AI schept veel mogelijkheden voor de toekomst, maar menselijke medische expertise blijft onmisbaar.
Branco De Busser, masterstudent Farmaceutische Wetenschappen aan de UAntwerpen, stelt voor zijn onderzoek verschillende AI-modellen vragen uit cursussen voor apothekers.
- Hoewel de modellen vaak correcte informatie gaven, waren er ook vaak fouten (hallucinaties) en onnauwkeurigheden, zoals verkeerd advies over medicatie. Dat kan zeer gevaarlijk zijn.
- Het onderzoek besluit dat deze modellen nuttig kunnen zijn als aanvullend hulpmiddel, maar dat ze geen betrouwbare vervanging zijn voor menselijke medische expertise.
AI biedt veel mogelijkheden en wordt steeds vaker in het dagelijkse leven gebruikt, ook in de gezondheidszorg. Maar nieuwe technologie brengt ook grote uitdagingen en risico’s met zich mee, die gebruikers niet mogen onderschatten.
Hoe werkt AI eigenlijk?
AI-modellen zoals ChatGPT zijn gebaseerd op Large Language Models (LLM’s). Die modellen worden getraind op enorme hoeveelheden tekstdata van het internet, boeken en wetenschappelijke artikels. Daardoor kunnen ze verbanden leggen tussen woorden en zinnen en zo menselijk klinkende antwoorden geven. Toch werkt AI anders dan het menselijk brein.
- Terwijl mensen redeneren op basis van ervaring, context en logica, voorspelt AI het meest waarschijnlijke volgende woord op basis van patronen in de trainingsdata.
- AI begrijpt dus niet wat het zegt. Het herkent slechts taalpatronen.
- Dat verklaart waarom AI soms overtuigende, maar verkeerde of contextloze antwoorden geeft.
Beperkingen en risico’s
Aan AI zijn verschillende risico’s en beperkingen verbonden:
- Onnauwkeurigheden en hallucinaties
- AI-modellen kunnen soms volledig verkeerde informatie verzinnen. Dat wordt ook wel ‘hallucinaties’ genoemd.
Zo toonde een onderzoek bijvoorbeeld aan dat 69% van de aangehaalde wetenschappelijke bronnen volledig verzonnen zijn, maar toch geloofwaardig lijken door realistisch klinkende titels en auteursnamen. Dat maakt factchecking noodzakelijk.
- Gebrek aan medische context
- AI houdt geen rekening met individuele medische dossiers of specifieke gezondheidsproblemen. Advies dat misschien correct lijkt, kan dus gevaarlijk zijn als het niet afgestemd is op iemands persoonlijke situatie, omdat een AI-model begrip en redenering mist zoals een mens dat heeft.
- Bias en discriminatie
- AI leert van bestaande data, die vaak bevooroordeeld is. Dat kan leiden tot ongelijke behandeling van patiënten.
- Enkele studies toonden bijvoorbeeld structurele vooroordelen aan in medische algoritmes (vooraf bepaalde sets instructies die een computerprogramma volgt), waardoor zwarte patiënten niet de zorg kregen die ze nodig hadden.
- Gebrek aan transparantie en privacy
- Privacy en transparantie vormen cruciale uitdagingen bij het gebruik van AI in de gezondheidszorg.
- Vragen die gebruikers stellen aan een AI-model, kunnen opgeslagen worden en risico’s voor privacy met zich meebrengen.
- Om ethisch en correct gebruik van AI te kunnen garanderen en gevoelige informatie te beschermen, is een duidelijk wettelijk kader rond dataprivacywetgeving noodzakelijk.
Mogelijkheden van AI in de toekomst
Hoewel er risico’s zijn, kan AI ook veel positieve toepassingen hebben in de gezondheidszorg. Het kan onder andere bijdragen aan:
- Ondersteuning van zorgverleners
- AI kan medische professionals helpen door snel toegang te geven tot grote hoeveelheden medische informatie en wetenschappelijke studies.
- Snellere triage
- AI kan symptomen analyseren en snel advies geven over de dringendheid van medische problemen.
- Zelfzorgtools
- Voor eenvoudige vragen over zelfzorgproducten of levensstijladvies kan AI een laagdrempelig hulpmiddel zijn.
- Administratieve hulp
- AI kan helpen om de administratieve last voor zorgverleners sterk te verminderen. Denk daarbij bijvoorbeeld aan het automatisch invullen van dossiers, afspraken inplannen of verzekeringsclaims verwerken. Dat maakt meer tijd vrij voor directe zorgverlening aan patiënten.
Conclusie
AI-modellen kunnen nuttig zijn voor eenvoudige vragen, maar ze zijn niet foutloos en begrijpen de medische context niet. Vertrouw nooit blindelings op AI voor gezondheidsadvies en bespreek altijd je vragen met een gekwalificeerde zorgverlener. AI schept veel mogelijkheden voor de toekomst, maar menselijke medische expertise blijft onmisbaar.
Heb je een vraag?
Bron:
www.gezondheidenwetenschap.be