Achtergrond

Hoe kunnen we AI verantwoord inzetten in de zorg?

© iStock. Wordt een robot straks onze arts?

Kunstmatige intelligentie (AI) biedt vele kansen voor de gezondheidszorg. Denk aan AI-systemen die kanker detecteren, aangeven of iemand geopereerd moet worden voor een botbreuk of kunnen voorspellen of iemand een hartritmestoornis krijgt. Maar juist in deze sector spelen ook zekere risico’s en ethische vraagstukken, die de vraag doen rijzen: hoe kunnen we AI verantwoord inzetten?

Het is het jaar 2050 en in ziekenhuizen is op de patiënten na geen mens in zicht. In plaats van artsen zijn het computersystemen die diagnoses stellen, behandelplannen opmaken en inschatten of een patiënt überhaupt beter kan worden. Tenminste, dat is de toekomst waar we door de huidige snelle ontwikkelingen op af lijken te stevenen.

Zo’n vaart zal het niet lopen, menen experts. Toch kunnen we niet ontkennen dat er binnen kunstmatige intelligentie, of AI, grote stappen worden gemaakt. Uit onderzoeken blijkt al dat AI-modellen vaak beter zijn in het opsporen van bijvoorbeeld kanker of voorspellen of een botbreuk instabiel wordt. Daarnaast kunnen generatieve AI-modellen als ChatGPT artsen ondersteunen bij het maken van samenvattingen of het opstellen van een ontslagbrief voor een patiënt. Dergelijke ontwikkelingen kunnen de zorg mogelijk verbeteren en veel administratief werk wegnemen bij artsen.

“We zien zeker een hele grote hype rondom AI in de zorg”, erkent dr. Jacobien Oosterhoff. Zij heeft een achtergrond als arts, gepromoveerd in de orthopedie, maar focust zich tegenwoordig als onderzoeker op AI voor gezondheidszorgsystemen aan de TU Delft. “We weten hoe we algoritmes moeten maken en zien dat er een enorme druk ligt op de zorg, waar hulp bij nodig is. Maar we weten nog niet zo goed hoe we dan AI verantwoord kunnen gebruiken. Het zit allemaal nog heel erg in de ontwikkel- en testfase. De technologie is ver gekomen, maar we balanceren nu eigenlijk nog een beetje tussen hype en hoop.”

© iStock. Een arts kijkt naar hersenscans.

Het gevaar van bias

Maar vrijwel niets komt zonder risico’s of potentieel nadelige gevolgen. Dat geldt ook voor kunstmatige intelligentie. “We moeten ons realiseren dat technieken eigenlijk altijd meer doen dan datgene waar we ze voor ontwikkelen”, stelt Marianne Boenink. Zij is hoogleraar Ethiek van de Gezondheidszorg aan de Radboud Universiteit en richt zich in het bijzonder op nieuwe medische technologie. Het woord ‘bias’ valt bij zowel haar als Oosterhoff al snel.

Technieken doen eigenlijk altijd meer dan datgene waar we ze voor ontwikkelen”

“Een klassiek voorbeeld is van een app die ontwikkeld werd om melanomen – dus huidkanker – te diagnosticeren aan de hand van foto’s. Die app was ontwikkeld op basis van data van mensen met een witte huidskleur. Mensen met een donkere huid zijn dan echt slechter af. Daar presteert die diagnostische test gewoon minder goed”, geeft Boenink als voorbeeld.

In de gezondheidszorg zijn bovendien heel veel variabelen waar bias in kan sluipen. Zelfs de locatie waar een algoritme ontwikkeld is, heeft invloed, zeggen Boenink en Oosterhoff. De levensverwachting in Nederland is bijvoorbeeld anders dan die in Australië of Amerika, net als ons dieet, scholing en zorgsysteem. “Als een model in Amerika is ontwikkeld en we gaan het nu hier toepassen, dan zou ik me daar heel veel zorgen over maken. Er zitten enorme verschillen tussen die populaties, waardoor ik me afvraag of die wel voldoende met elkaar overeenkomen om een algoritme hier toepasbaar te maken”, zegt Boenink.

Oosterhoff sluit zich daarbij aan: “Je moet heel goed testen of een AI-model uit Amerika ook werkt in bijvoorbeeld Australië. Je kunt in sommige gevallen beter een nieuw algoritme maken voor specifiek die populatie.” Volgens haar heeft dat ook te maken met het feit dat het gezondheidssysteem in Nederland heel anders is dan in andere landen. “Als je in Nederland een gebroken pols hebt, worden twintig van de honderd patiënten geopereerd. Maar in Australië zijn dat er tachtig van de honderd.” Een Australisch AI-model zal er dus op getraind zijn om eerder te adviseren om te opereren.

Je kunt in sommige gevallen beter een nieuw algoritme maken voor een specifieke populatie.”

Transparantie biedt oplossing

Boenink en Oosterhoff spreken dan ook veel over het belang van transparantie. Professor Carl Moons van het UMC Utrecht richt zich veel op dat gebied. Hij werkte als projectleider met internationale consortia aan drie richtlijnen om de verantwoorde ontwikkeling van zorg-AI gebruik te stimuleren. TRIPOD+AI richt zich in het bijzonder op transparantie van algoritmen in de zorg: het is een checklist om te zorgen dat ontwikkelaars zo transparant mogelijk zijn over hun AI-modellen als ze daarover publiceren.

“Transparantie is belangrijk omdat zorgverleners heel veel voorspelalgoritmen gebruiken om patiënten te monitoren en diagnoses te stellen. Dan is het prettig dat op het moment dat ze die publiceren, ze exact weten: op basis van welke patiënten is dit ontwikkeld? Is het algoritme gevalideerd? Hoe goed zijn de voorspellingen?”, zegt Moons. Dergelijke vragen zijn niet alleen belangrijk voor zorgverleners en patiënten, maar ook voor beleidsmakers en richtlijnenontwikkelaars, benadrukt hij. “De WHO, de Vereniging van Medische Specialisten, het Nederlands Huisartsgenootschap – zij moeten allemaal een keuze maken. Willen we dit algoritme in de richtlijn opnemen voor deze ziekte? Dan is het wel handig als je snapt wat ze doen.”

Het stellen van deze vragen zorgt er niet alleen voor dat ontwikkelaars transparant zijn, het dwingt ze ook om na te denken over hoe inclusief hun dataset is en hoe ze bepaalde zaken hebben aangepakt – en of dat wel de beste methode was. Nadeel is echter dat TRIPOD+AI pas aan het einde van het ontwikkeltraject wordt ingezet. Daarom werden ook de Leidraad kwaliteit AI in de zorg  en PROBAST+AI gemaakt. De Leidraad helpt onder meer ontwikkelaars, zorgverleners en richtlijnontwikkelaars hun algoritme te beoordelen op veiligheid, kwaliteit en (kosten-)effectiviteit. PROBAST+AI is een tool om te bepalen hoe groot het risico op bias ofwel invaliditeit in een algoritme is.

Zeker nu zijn dergelijke richtlijnen belangrijk, vindt Moons, ook al is er geen wet die de inzet ervan verplicht. “Voorheen werden algoritmes bijna altijd door onderzoekers in de zorgsector gemaakt. Dus de dataset kwam vrijwel altijd uit eigen zorgpraktijken, was bekend en werd duidelijk gesampled. Wij gingen vervolgens een artikel schrijven en zijn ook gewend om dat heel gestructureerd te doen. Maar nu hebben we de situatie waarin datasets vaak in de cloud staan, en ook anderen daarbij kunnen. Ook partijen die niet in de zorgsector werken, zoals data scientists bij bedrijven als Google en Microsoft. Heel veel AI-algoritmes komen nu dus van buiten de zorg. Dat vindt de zorgsector traditioneel heel spannend.” De richtlijnen kunnen helpen om zekerheid over ontwikkelde AI-modellen te creëren, is de gedachte.

© iStock. Een MRI-scan van een long.

Soft impacts

Veel van de focus gaat echter uit naar de zogenaamde ‘hard impacts’ – de directe gevolgen voor patiënten. Maar AI kan ook indirecte gevolgen hebben, waar niet altijd goed naar gekeken wordt, waarschuwt Boenink. “We kijken eigenlijk bijna alleen maar naar de effecten die beoogd zijn. Wat willen we en is deze technologie daar goed genoeg in? Daarnaast kijken we nog een beetje naar de risico’s, zoals naar de straling bij radiologie-apparatuur. Maar er zijn ook soft impacts – dus meer de indirecte gevolgen – die moeilijker te kwantificeren zijn. De interactie tussen arts en patiënt kan bijvoorbeeld veranderen. Als ethicus denk ik: je zou op zijn minst willen verantwoorden of goed willen anticiperen op wat zich aan mogelijke impacts kan voordoen. Zijn er dingen die niet we niet wenselijk vinden? Zo ja, dan moet je goed nadenken wat we nu kunnen doen om die effecten te voorkomen of zoveel mogelijk te reduceren.”

Eén van dit soort risico’s is dat artsen blind vertrouwen op wat de computer zegt, terwijl ook AI-systemen fouten kunnen maken. Om dat te voorkomen, is training van groot belang, vindt Oosterhoff. “Net als dat artsen leren hoe ze moeten opereren of hoe ze een nieuwe schaar moeten gebruiken, moeten ze ook leren hoe ze bepaalde softwaretools gaan gebruiken. Maar dat is heel lastig, zeker met de druk op de zorg. We hebben ook nog niet echt één antwoord op hoe we dat gaan doen.”

Ook de manier waarop de resultaten van een AI-systeem worden gecommuniceerd, kan hier een belangrijke rol in spelen. Boenink noemt als voorbeeld een onderzoek waarbij aan de hand van continue EEG-data werd voorspeld of mensen uit hun coma zouden komen of niet. De ontwikkelaars overwogen om de resultaten in de drie kleuren van een stoplicht aan te geven: rood, oranje en groen. Maar dat geeft artsen niet het gevoel dat er nog een foutmarge in de resultaten zit, of dat zij zelf een beslissing kunnen nemen. “Dat kun je ook op andere manieren vormgeven. Er zijn goede voorbeelden waarbij de AI bijvoorbeeld onzekerheidsmarges geeft.” In zo’n geval geeft de AI bijvoorbeeld aan dat er een 80% kans is dat dat iemand uit een coma komt of 20%. “Je moet de uitkomsten zo vormgeven dat de arts gedwongen wordt om zelf na te denken: dit is niet per se een eenduidig resultaat, maar ik moet het combineren met andere zaken.”

Wordt AI onze nieuwe arts?

Ondanks de risico’s waar nog mee omgegaan moet worden, is de kans groot dat AI steeds vaker zijn weg naar de zorg gaat vinden, vermoeden de drie experts. “Je kunt voor AI zijn, je kunt tegen zijn, maar we moeten er echt mee gaan dealen”, stelt Moons. “Dus hoe kunnen we dat het beste in goede banen leiden? Dat is wat ik probeer te doen.”

Je kunt voor of tegen AI zijn, maar we moeten er echt mee gaan dealen.”

Juist vanwege de risico’s verwachten de experts wel dat het gebruik van AI tot een zeker punt beperkt blijft in dit werkveld. “AI zal nooit een arts vervangen bij het maken van een diagnose of het behandelen van een patiënt. Dat zijn echt hoog risicogroepen, waarbij het altijd een dynamiek zal zijn tussen algoritme en arts. Verantwoorde AI in de zorg vraagt juist om gedeelde verantwoordelijkheid – zorgverlener als gebruikers, algoritme-ontwikkelaars in samenwerking met ethici, juristen, patiënten en beleidsmakers. ”, denkt Oosterhoff.


Je las zojuist een gratis premium artikel op TW.nl. Wil je meer van dit? Abonneer dan op TW en krijg toegang tot alle premium artikelen.


 

Onderwerp:
AiGezondheidszorgInnovatie

Meer relevante berichten

Nieuwsbrief
Relevante berichten