We streven er naar
dat iedereen lekker
in zijn vel zit.

Artikelen

Thema Artificiële intelligentie - Ethiek van artificial intelligence en derma-apps (2023-08)

Artikel in PDF
M.H.N. Schermer

Disclaimer: Deze publicatie is tot stand gekomen zonder enige tussenkomst of bemoeienis van artificiële intelligentie (ChatGPT, Bard)

Met je mobiele telefoon checken of je moedervlekken niet kwaadaardig zijn: dat klinkt als een handige uitvinding. Derma-apps en andere AI-toepassingen bieden mooie kansen om de dermatologische zorg te verbeteren, alsmede nieuwe uitdagingen. Ook op ethisch vlak.

De toepassing van artificiële intelligentie in de zorg is zich in razend tempo aan het uitbreiden. Naast de pathologie en de radiologie, is de dermatologie een van de vakgebieden die daarbij voorop zouden moeten kunnen lopen. Algoritmen, al dan niet zelflerend, kunnen biopten of beeldvormend onderzoek beoordelen, waarbij artificiële intelligentie sneller en soms betrouwbaarder is dan menselijke beoordelaars. Binnen de dermatologie wordt artificiële intelligentie soms al toegepast voor het beoordelen van huidafwijkingen. Er zijn inmiddels meerdere apps beschikbaar die een foto van een huidafwijking, genomen met een smartphone, kunnen beoordelen op het risico op maligniteit. SkinVision is een bekend en relatief goed onderzocht voorbeeld van zo’n derma-app. [1] Dit soort apps kan op verschillende manieren worden ingezet binnen de zorg: burgers en patiënten kunnen ze zelf gebruiken om hun huid te controleren en te checken of er aanleiding is om een arts te consulteren, maar ook professionals zoals huisartsen zouden van de app gebruik kunnen maken bij hun beslissing om een patiënt al dan niet door te sturen. Mits de sensitiviteit en specificiteit worden verbeterd, zou een dergelijke AI-toepassing in de tweede lijn als een second opinion kunnen fungeren, en in de publieke gezondheidszorg zou deze in theorie als instrument voor populatiescreening kunnen worden ingezet. Toch zijn er ook zorgen, bijvoorbeeld over de betrouwbaarheid van deze technologie, de potentieel negatieve effecten van bias, of de aansprakelijkheid als het fout gaat. AI biedt dus enerzijds mooie kansen om de zorg te verbeteren, maar kan ook onvoorziene effecten en risico’s met zich meebrengen en ethische vragen oproepen.

Ethiek van artificiële intelligentie

Belangrijke instanties zoals de WHO hebben adviezen uitgebracht waarin de ethische aspecten van artificiële intelligentie in de zorg worden belicht en in de gezondheidsethiek wordt hier inmiddels ook volop over nagedacht. [2,3] Hoe kunnen we artificiële intelligentie op een ethisch verantwoorde manier inzetten in de zorg? Belangrijke uitgangspunten hierbij zijn betrouwbaarheid, veiligheid, transparantie en inclusiviteit. Ook de bekende medisch ethische principes weldoen, niet-schaden, respect voor autonomie en rechtvaardigheid blijven uiteraard van toepassing als het gaat om het gebruik van artificiële intelligentie in de zorg. De vraag wat ‘goede’ artificiële intelligentie is, slaat zowel op de artificiële intelligentie zélf – welke data worden gebruikt? welke bias zit er mogelijk in? – als op verantwoorde inzet ervan binnen zorgprocessen en in de arts-patiëntrelatie. In alle stappen van ontwikkeling tot en met implementatie en toepassing is aandacht voor ethische aspecten belangrijk. Ik bespreek hieronder een aantal ethische aspecten van derma-apps, die relevant zijn voor de klinische praktijk.

Betrouwbaarheid en de balans tussen weldoen en niet-schaden
Derma-apps kunnen de zorg verbeteren door bij te dragen aan tijdige opsporing en behandeling van huidkanker. Deze apps zouden de zorg ook toegankelijker en efficiënter kunnen maken: allemaal ethische redenen om deze ontwikkeling toe te juichen. Betrouwbaarheid is echter wel een belangrijk aandachtspunt. Fout-positieve uitslagen van de app kunnen leiden tot onnodige onrust en angst bij app-gebruikers, en tot overconsumptie van zorg en wellicht zelfs schade door onnodige interventies zoals biopten. Hierbij speelt ook het vertrouwen dan patiënt en artsen in de app hebben een rol. Mensen hebben vaak een groter vertrouwen in uitkomsten van artificiële intelligentie dan gerechtvaardigd is, de zogenaamde ‘automation bias’. Patiënten zouden daarom kunnen aandringen op (onnodig) verder onderzoek, wat tot lastige gesprekken in de spreekkamer kan leiden. Ook artsen kunnen door deze bias beïnvloed worden, met mogelijk schadelijke gevolgen. [4] Omdat het bij huidafwijkingen om een heel grote populatie gaat, zullen er ook bij een redelijke specificiteit en sensitiviteit van de app uiteindelijk in absolute zin flinke aantallen vals-positieven ontstaan, wat tot grotere belasting van de zorg zou kunnen leiden. Aan de andere kant zijn vals-negatieve uitslagen uiteraard ook onwenselijk, want valse geruststelling kan leiden tot delay in diagnose en in behandeling, met mogelijk ernstige gevolgen. Het gaat dus om een precaire balans tussen weldoen en niet-schaden. Voor de betrouwbaarheid van diagnostiek met behulp van zelflerende AI zijn tenslotte ook de kwaliteit van de trainingsdata en de translatie naar de praktijk cruciaal. Het principe ‘garbage in garbage out’ geeft op plastische wijze aan dat wanneer de data waarop een algoritme getraind en getest wordt niet goed zijn, de performance van de artificiële intelligentie dat ook niet is. Ook de vertaalslag naar de praktijk kan impact hebben op de betrouwbaarheid van een algoritme, bijvoorbeeld doordat kwaliteit van foto’s gemaakt met de smartphone niet hetzelfde is als die van de trainingsdata.

Bias kan leiden tot onrechtvaardigheid
Bias in algoritmen kan dus leiden tot schade bij patiënten, maar ook tot onrechtvaardige behandeling en discriminatie. Een bekend voorbeeld van buiten de zorg zijn de algoritmen van de Belastingdienst of, recenter, DUO, die onevenredig vaak mensen met een migratieachtergrond aanwijzen als potentiële fraudeurs. Ook bij medische toepassingen bestaat een risico op bias met discriminatoire gevolgen. Derma-apps kunnen onbedoeld discrimineren wanneer ze minder goed getraind worden op donkerdere huidtypen, waardoor de betrouwbaarheid van de risico-voorspelling minder goed is bij patiënten met een donkere huid. Een reden voor ondervertegenwoordiging van donkerder huidtypen in de trainingsdata is dat melanomen ook minder voorkomen in deze groep. Dat betekent echter niet dat betrouwbaarheid van een app voor deze groep minder belangrijk is dan voor anderen. De algoritmen actief trainen op data van donkere huidtypen zou dit kunnen ondervangen. Daarvoor zou het opzetten van een database specifiek voor donkere huidtypen behulpzaam kunnen zijn. [5] Sommige derma-apps geven bij een donkere huid aan dat de foto ‘niet te beoordelen’ is, wat door mensen met een donkere huid terecht als discriminerend ervaren kan worden. Zij worden immers effectief uitgesloten van het gebruik van de app, wat lijnrecht ingaat tegen het principe van inclusiviteit.

Verantwoordelijkheid en aansprakelijkheid
Wie is er aansprakelijk is voor mogelijke fouten of schade veroorzaakt door een derma-app? Dat is voor artsen die hier gebruik van maken een belangrijke vraag. Dit is ook juridisch gezien een gebied dat snel in ontwikkeling is, en waarover het laatste woord ook nog niet gezegd is. In de spreekkamer geldt over het algemeen dat als een arts een medische app gebruikt of aanraadt, hij daarvoor ook professionele verantwoordelijkheid draagt. De arts blijft eindverantwoordelijk voor de geleverde zorg en dus ook voor inzetten van artificiële intelligentie, net als voor andere diagnostische technologieën. Het is dus belangrijk zelf goed op de hoogte te zijn van de voor- en nadelen en de risico’s, en ook de patiënt daarover goed voor te lichten. Daarom zijn uitlegbaarheid en transparantie ook belangrijke waarden. Het is immer makkelijker om verantwoordelijkheid te dragen als je begrijpt hoe een algoritme tot een oordeel is gekomen, dan wanneer dit een volledige ‘black box’ is. Het is in de (ethische) literatuur nog wel een discussiepunt of artificiële intelligentie inderdaad altijd uitlegbaar moet zijn, of dat het voldoende is wanneer met onderzoek is aangetoond dat de artificiële intelligentie betrouwbaar is. Ook van medicatie die bewezen werkt, weten we immers niet altijd exact het achterliggende mechanisme. [6] Buiten de spreekkamer is de gebruiker van een app zelf verantwoordelijk voor verstandig gebruik – in de Algemene Voorwaarden (de ‘kleine lettertjes’) staat dit duidelijk vermeld, inclusief de beperkingen van de app. [7]

Een interessante vraag – zeker voor de toekomst – is of een arts ook de professionele en morele plicht kan hebben om artificiële intelligentie in te zetten. Wanneer een derma-app aantoonbaar beter presteert dan bijvoorbeeld de huisarts, zou het inzetten hiervan in de eerste lijn een kwestie van goed hulpverlenerschap kunnen worden. [8]

Data, privacy en beroepsgeheim
In dit data-tijdperk ontkomen we ook niet aan de vraag hoe een app omgaat met alle patiënten data die wordt gegenereerd en gebruikt. De criteria voor goede omgang met data zijn vastgelegd in wet- en regelgeving, maar soms moeten daarbij ook afwegingen worden gemaakt. Hoe meer en gedetailleerdere data een algoritme gebruikt, hoe groter waarschijnlijk de betrouwbaarheid, maar ook de privacyrisico’s. Het is, zeker binnen de zorg, ook belangrijk om kritisch te zijn op de rol van commerciële partijen, die immers ook andere belangen hebben dan goede zorg leveren. Data, en met name gezondheidsdata zijn waardevol. Uit onderzoek blijkt dat commerciële gezondheids-apps over het algemeen niet erg goed omgaan met gegevens van gebruikers. ‘Beroepsgeheim bestaat niet voor commerciële apps’ stellen auteurs van een studie hierover. Dit artikel raadt artsen dan ook aan om patiënten te waarschuwen voor vaak gebrekkige privacy van commerciële apps. [9] In de eerdergenoemde Algemene Voorwaarden en in het Privacy beleid van SkinVision staat vermeld dat verzamelde data ook voor marketing en onderzoeksdoeleinden gebruikt mogen worden, én dat de gebruiker zijn data ook altijd weer kan laten verwijderen of toestemming voor gebruik intrekken. De Consumentenbond beoordeelde voor een aantal commerciële derma-apps het privacybeleid en gaf daarbij enkele voldoendes, maar ook enkele onvoldoendes. [7,10]

Arts-patiëntrelatie
Derma-apps kunnen burgers meer controle geven over hun gezondheid, en patiënten meer mogelijkheden voor zelfmanagement. Ze kunnen dus een positief effect hebben op de autonomie van patiënten. Bovendien is een app voor veel mensen ook laagdrempeliger dan een bezoek aan de huisarts en vergroot het daarmee de toegankelijkheid van zorg. Dit geldt echter niet voor iedereen. Zo’n 20% van de bevolking heeft moeite met het gebruik van digitale technologie, kan niet goed overweg met smartphones, of heeft moeite om apps en updates te installeren. [11] De kosten van de smartphone kunnen soms een probleem zijn, en de taal kan een barrière vormen. Patiënten geven ook vaak nog aan dat ze liever ‘een echte dokter’ spreken. Daarin hebben ze meer vertrouwen, en ze kunnen daarbij terecht voor vragen en uitleg. Het is dus belangrijk om bij het ontwerpen van gezondheidsapps rekening te houden met mensen die geringe digitale gezondheidsvaardigheden hebben en te streven naar inclusiviteit door rekening te houden met de diversiteit van de doelgroep.

Samenwerken met AI
Een laatste vraag is hoe we in de toekomst om zullen gaan met artificiële intelligentie als derde partij in de spreekkamer. Hoe gaan we de behandeladviezen of prognoses van artificiële intelligentie inbedden in ‘samen beslissen’? Welke stem krijgt artificiële intelligentie daarin? Hoe ga je er als arts mee om als artificiële intelligentie tot een ander oordeel of aanbeveling komt dan jijzelf? Met andere woorden: wat wordt de verhouding tussen arts en artificiële intelligentie? Verschillende modellen zijn mogelijk, van artificiële intelligentie als louter hulpmiddel, tot artificiële intelligentie als een soort digitale collega waaraan je een second opinion vraagt. [12] Ook zouden taken waarin artificiële intelligentie beter is – zoals wellicht het beoordelen van moedervlekken in de eerste lijn – overgedragen kunnen worden aan de app, zodat de arts meer tijd heeft voor andere taken, zoals een goed gesprek met de patiënt. Het is belangrijk om hierover tijdig na te denken en in discussie te gaan, om zo gezamenlijk te ontdekken hoe derma-apps en andere AI-applicaties daadwerkelijk kunnen bijdragen aan goede zorg.

Literatuur

1. Sangers T, Reeder S, van der Vet S, et al. Validation of a market-approved artificial intelligence mobile health app for skin cancer screening: A prospective multicenter diagnostic accuracy study. Dermatology. 2022; 238:649–656.
2. World Health Organization. Ethics and governance of artificial intelligence for health. Geneva: 2021.
3. Willem T, Krammer S, Böhm AC, et al. Risks and benefits of dermatological machine learning health care applications—an overview and ethical analysis. J Eur Acad Dermatol Venereol. 2022; 36:1660–68.
4. Dratsch T, Chen X, Mehrizi MR, et al. Automation bias in mammography: The impact of artificial intelligence BI-RADS suggestions on reader performance. radiology. 2023: doi.org/10.1148/radiol.222176.
5. Pot M, Kieusseyan N, Prainsack B. Not all biases are bad: equitable and inequitable biases in machine learning and radiology. Insights Imaging. 2021; 12:13.
6. Durán JM, Jongsma KR. Who is afraid of black box algorithms? On the epistemological and ethical basis of trust in medical AI. J Med Ethics. 2021;47:329–335.
7. https://skinvision-static-content.s3-eu-west-1.amazonaws.com/website/nl/Algemene_Voorwaarden.pdf [geraadpleegd 4 juli 2023].
8. Centrum voor Ethiek en Gezondheid. Digitale dokters – een ethische verkenning van medische expertsystemen. Den Haag: CEG, 2018.
9. Tangari G, Ikram M, Ijaz K, Kaafar M, Berkovsky S, Mobile health and privacy: cross sectional study. BMJ.2021;373:n1248|
10. https://www.consumentenbond.nl/nieuws/2020/apps-om-verdachte-huidplekjes-te-scannen-niet-altijd-betrouwbaar [geraadpleegd 4 juli 2023].
11. Pharos. Factsheet digitale vaardigheden 2022. https://www.pharos.nl/factsheets/digitale-vaardigheden [geraadpleegd 30 juni 2023].
12. Grote T, Berend P. How competitors become collaborators—Bridging the gap(s) between machine learning algorithms and clinicians. Bioethics. 2022; 36: 134-42.

Correspondentieadres

Maartje Schermer
E-mail: m.schermer@erasmusmc.nl