Door Jessica Kent
oktober 02, 2020 – Hoewel het potentieel van big data-analyses in de gezondheidszorg goed is gedocumenteerd in talloze studies, hebben de mogelijke risico’s die kunnen voortkomen uit het gebruik van deze tools net zoveel aandacht gekregen.
Big data analytics-technologieën hebben hun belofte bewezen in het verbeteren van meerdere gebieden van de zorg, van medische beeldvorming en chronisch ziektebeheer tot populatiegezondheid en precisiegeneeskunde. Deze algoritmen zouden de efficiëntie van de zorgverlening kunnen verhogen, de administratieve lasten kunnen verminderen en de diagnose van ziekten kunnen versnellen.
Ondanks al het goede dat deze tools mogelijk kunnen bereiken, is de schade die deze algoritmen kunnen veroorzaken bijna net zo groot.
Zorgen over de toegang tot en verzameling van gegevens, impliciete en expliciete vooringenomenheid, en problemen met het vertrouwen van patiënten en zorgverleners in analysetechnologieën hebben het gebruik van deze tools in de dagelijkse zorgverlening belemmerd.
Zorgonderzoekers en zorgaanbieders werken aan oplossingen voor deze problemen, waardoor het gebruik van big data-analyses in de klinische zorg kan worden vergemakkelijkt voor betere kwaliteit en resultaten.
Het leveren van uitgebreide, kwalitatieve trainingsgegevens
Lees meer: How Big Data Analytics Models Can Impact Healthcare Decision-Making
In de gezondheidszorg is men het er algemeen over eens dat het succes van big data analytics-tools afhangt van de waarde van de informatie die wordt gebruikt om ze te trainen. Algoritmen die worden getraind op onnauwkeurige gegevens van slechte kwaliteit zullen foutieve resultaten opleveren, wat leidt tot inadequate zorgverlening.
Het verkrijgen van kwalitatieve trainingsgegevens is echter een moeilijke, tijdrovende inspanning, waardoor veel organisaties niet over de middelen beschikken om effectieve modellen te bouwen.
Onderzoekers in de hele sector werken aan het overwinnen van deze uitdaging. In 2019 heeft een team van MIT’s Computer Science and Artificial Intelligence Library (CSAIL) een geautomatiseerd systeem ontwikkeld dat meer gegevens kan verzamelen van beelden die worden gebruikt om machine learning-modellen te trainen, waarbij een enorme dataset van verschillende trainingsvoorbeelden wordt gesynthetiseerd.
De dataset kan worden gebruikt om de training van machine learning-modellen te verbeteren, waardoor ze anatomische structuren in nieuwe scans kunnen detecteren.
“We hopen dat dit beeldsegmentatie toegankelijker maakt in realistische situaties waarin je niet veel trainingsdata hebt,” zei Amy Zhao, een afgestudeerde student aan het Department of Electrical Engineering and Computer Science (EECS) en CSAIL.
READ MORE: Is Healthcare Any Closer to Achieving the Promises of Big Data Analytics?
“In onze benadering kun je leren om de variaties in ongelabelde scans na te bootsen om op intelligente wijze een grote dataset samen te stellen om je netwerk te trainen.”
De huidige crisis in de gezondheidszorg heeft leiders in de gezondheidszorg er ook toe aangezet om kwalitatief goede, schone datasets te ontwikkelen voor de ontwikkeling van algoritmen. In maart deed het White House Office of Science and Technology Policy een oproep aan experts om AI-tools te bouwen die kunnen worden toegepast op een nieuwe COVID-19 dataset.
De dataset is een uitgebreide machine-leesbare coronavirus literatuurcollectie, inclusief meer dan 29.000 artikelen.
“Het is moeilijk voor mensen om handmatig meer dan 20.000 artikelen door te nemen en hun bevindingen te synthetiseren. Recente ontwikkelingen in de technologie kunnen hierbij van pas komen,” zegt Anthony Goldbloom, medeoprichter en chief executive officer van Kaggle, een machine learning en data science community die eigendom is van Google Cloud.
“We zetten machine leesbare versies van deze artikelen voor onze community van meer dan 4 miljoen data scientists. Onze hoop is dat AI kan worden gebruikt om te helpen antwoorden te vinden op een belangrijke reeks vragen over COVID-19.”
Eliminating bias in data and algorithms
READ MORE: Big Data Analytics Strategies are Maturing Quickly in Healthcare
Als gezondheidszorgorganisaties steeds afhankelijker worden van analytische algoritmen om hen te helpen zorgbeslissingen te nemen, is het van cruciaal belang dat deze tools vrij zijn van impliciete of expliciete vooringenomenheid die de ongelijkheid op gezondheidsgebied verder kan aanwakkeren.
Met de bestaande ongelijkheden die de gezondheidszorg doordringen, is het ontwikkelen van foutloze, bias-vrije algoritmen vaak een uitdaging. In een onderzoek uit 2019 ontdekten onderzoekers van de University of California Berkeley raciale vooroordelen in een voorspellend analytisch platform dat hoogrisicopatiënten naar zorgbeheerprogramma’s verwees.
“Algoritmen kunnen vreselijke dingen doen, of algoritmen kunnen prachtige dingen doen. Welke van die dingen ze doen is in principe aan ons,” zei Ziad Obermeyer, waarnemend universitair hoofddocent gezondheidsbeleid en -management aan UC Berkeley en hoofdauteur van het onderzoek. “We maken zo veel keuzes wanneer we een algoritme trainen die technisch en klein aanvoelen. Maar deze keuzes maken het verschil tussen een algoritme dat goed of slecht is, bevooroordeeld of onbevooroordeeld.”
Om vooringenomenheid te verwijderen uit big data-analysetools, kunnen ontwikkelaars samenwerken met experts en eindgebruikers om te begrijpen welke klinische maatregelen belangrijk zijn voor zorgverleners, vertelde Philip Thomas, PhD, MS, assistent-professor aan het college van informatie en computerwetenschappen aan de Universiteit van Massachusetts Amherst, HealthITAnalytics.
“We promoten niet hoe we nauwkeurigheid versus discriminatie in evenwicht moeten brengen. We zeggen niet wat de juiste definities van eerlijk of veilig zijn. Ons doel is om de persoon die een expert is op dat gebied te laten beslissen,” zei hij.
Weliswaar is communicatie met aanbieders en eindgebruikers tijdens de ontwikkeling van algoritmen uiterst belangrijk, maar vaak is deze stap slechts het halve werk. Het verzamelen van de hoogwaardige gegevens die nodig zijn om onbevooroordeelde analysetools te ontwikkelen, is een tijdrovende, moeilijke taak.
Om dit proces te versnellen, hebben onderzoekers van de Columbia University een algoritme voor machinaal leren ontwikkeld dat verschillen in bijwerkingen van geneesmiddelen tussen mannen en vrouwen identificeert en voorspelt door 50 jaar aan rapporten in een FDA-database te analyseren.
“In wezen is het idee om te corrigeren voor gendervooroordelen voordat je een andere statistische analyse doet door een gebalanceerde subset van patiënten te maken met gelijke delen mannen en vrouwen voor elk geneesmiddel,” zei Payal Chandak, een senior biomedische informatica aan Columbia University en de andere co-auteur van het artikel.
Hulpmiddelen van hoge kwaliteit ontwikkelen met behoud van de privacy van de patiënt
Bij de ontwikkeling van algoritmen staat de kwestie van de privacy en veiligheid van gegevens hoog op de lijst van zorgen. Juridische, privacy- en culturele obstakels kunnen onderzoekers ervan weerhouden toegang te krijgen tot de grote, diverse datasets die nodig zijn om analytische technologieën te trainen.
Onlangs is een team van de University of Iowa (UI) begonnen met het ontwikkelen van een oplossing voor dit probleem. Met een subsidie van 1 miljoen dollar van de National Science Foundation (NSF) zullen UI-onderzoekers een platform voor machinaal leren creëren om algoritmen te trainen met gegevens van over de hele wereld.
De groep zal een gedecentraliseerde, asynchrone oplossing ontwikkelen met de naam ImagiQ, die vertrouwt op een ecosysteem van modellen voor machinaal leren, zodat instellingen modellen kunnen selecteren die het beste werken voor hun bevolkingsgroepen. Organisaties kunnen de modellen, niet de patiëntgegevens, uploaden en met elkaar delen.
“Traditionele methoden voor machinaal leren vereisen een gecentraliseerde database waarin patiëntgegevens direct toegankelijk zijn voor het trainen van een model voor machinaal leren,” zegt Stephen Baek, assistent-professor in industriële en systeemtechniek aan de UI.
“Dergelijke methoden worden beïnvloed door praktische kwesties zoals de privacy van patiënten, informatiebeveiliging, data-eigendom, en de last voor ziekenhuizen die deze gecentraliseerde databases moeten creëren en onderhouden.”
Onderzoekers van de Perelman School of Medicine van de Universiteit van Pennsylvania hebben onlangs ook een oplossing ontwikkeld om de vertrouwelijkheid van patiënten te beschermen. In een studie gepubliceerd in Scientific Reports, beschreef het team een nieuwe techniek die clinici in staat stelt om machine learning-modellen te trainen met behoud van de privacy van patiëntgegevens.
Met behulp van een opkomende aanpak genaamd federated learning, kunnen clinici een algoritme trainen over meerdere gedecentraliseerde apparaten of servers die lokale gegevensmonsters bevatten zonder ze uit te wisselen.
“Hoe meer gegevens het computationele model ziet, hoe beter het het probleem leert, en hoe beter het de vraag kan beantwoorden waarvoor het is ontworpen,” zei senior auteur Spyridon Bakas, PhD, een instructeur van Radiologie en Pathologie & Laboratoriumgeneeskunde in de Perelman School of Medicine aan de Universiteit van Pennsylvania.
“Van oudsher wordt bij machine learning gebruikgemaakt van gegevens van één instelling, en vervolgens werd duidelijk dat die modellen niet goed presteren of generaliseren op gegevens van andere instellingen.”
Verzekeren dat aanbieders analytische tools vertrouwen en ondersteunen
Net zoals het essentieel is voor patiënten om erop te vertrouwen dat analytische algoritmen hun gegevens veilig kunnen bewaren, is het cruciaal voor aanbieders om erop te vertrouwen dat deze tools op een bruikbare, betrouwbare manier informatie kunnen leveren.
In een recent rapport van de American Hospital Association (AHA) merkte de organisatie op dat één manier waarop organisaties het vertrouwen van zorgverleners in deze tools kunnen veiligstellen, is door AI te gebruiken om onhoudbare werkdruk te beheren.
Daarnaast zouden leiders AI-tools kunnen inzetten om de klinische besluitvorming op het punt van zorg te verbeteren, aldus de AHA. Door zorgverleners in staat te stellen AI-tools te beoordelen en te verfijnen, kan er ook voor worden gezorgd dat artsen achter de technologie staan.
Onderzoekers van MIT’s CSAIL hebben ook gewerkt aan het vergroten van het vertrouwen van zorgverleners in analytische tools. Een team heeft onlangs een tool voor machinaal leren ontwikkeld dat kan aanpassen wanneer en hoe vaak het een beroep doet op menselijke deskundigen op basis van factoren zoals de beschikbaarheid en het ervaringsniveau van de deskundige.
“Er zijn veel obstakels die volledige automatisering in klinische settings begrijpelijkerwijs in de weg staan, waaronder kwesties van vertrouwen en verantwoording,” zegt David Sontag, de Von Helmholtz Associate Professor of Medical Engineering bij de afdeling Electrical Engineering and Computer Science.
“We hopen dat onze methode beoefenaars van machine learning zal inspireren om creatiever te worden in het integreren van real-time menselijke expertise in hun algoritmen.”
In toenemende mate maken organisaties in de gezondheidszorg gebruik van big data-analysetools voor verbeterde inzichten en gestroomlijnde zorgprocessen. Het overwinnen van problemen op het gebied van vooringenomenheid, privacy en veiligheid, en het vertrouwen van gebruikers zal van cruciaal belang zijn voor het succesvolle gebruik van deze modellen in de klinische zorg.
Terwijl het onderzoek zich blijft ontwikkelen rond AI, machine learning en andere analytische algoritmen, zal de sector deze tools blijven verfijnen voor een betere patiëntenzorg.