By Jessica Kent
October 02, 2020 – Podczas gdy potencjał analityki big data w opiece zdrowotnej został dobrze udokumentowany w niezliczonych badaniach, możliwe zagrożenia, które mogą pochodzić z korzystania z tych narzędzi, otrzymały równie dużo uwagi.
Technologie analizy dużych danych okazały się obiecujące w ulepszaniu wielu obszarów opieki, od obrazowania medycznego i zarządzania chorobami przewlekłymi po zdrowie populacji i medycynę precyzyjną. Algorytmy te mogłyby zwiększyć efektywność świadczenia opieki, zmniejszyć obciążenia administracyjne i przyspieszyć diagnozowanie chorób.
Pomimo wszelkich korzyści, jakie te narzędzia mogą potencjalnie przynieść, szkody, jakie algorytmy te mogą spowodować, są niemal tak samo duże.
Obawy dotyczące dostępu do danych i ich gromadzenia, ukrytych i jawnych uprzedzeń, a także kwestie zaufania pacjentów i świadczeniodawców do technologii analitycznych utrudniają stosowanie tych narzędzi w codziennej opiece zdrowotnej.
Badacze opieki zdrowotnej i organizacje świadczeniodawców pracują nad znalezieniem rozwiązań tych problemów, ułatwiając wykorzystanie analityki big data w opiece klinicznej w celu poprawy jakości i wyników leczenia.
Dostarczanie kompleksowych, wysokiej jakości danych szkoleniowych
PRZECZYTAJ WIĘCEJ: How Big Data Analytics Models Can Impact Healthcare Decision-Making
W opiece zdrowotnej powszechnie rozumie się, że sukces narzędzi analityki big data zależy od wartości informacji wykorzystywanych do ich szkolenia. Algorytmy wyszkolone na niedokładnych, niskiej jakości danych dadzą błędne wyniki, prowadząc do nieodpowiedniego świadczenia opieki.
Jednakże uzyskanie wysokiej jakości danych szkoleniowych jest trudnym, czasochłonnym wysiłkiem, pozostawiając wiele organizacji bez zasobów do budowania skutecznych modeli.
Badacze w całej branży pracują nad pokonaniem tego wyzwania. W 2019 r. zespół z MIT’s Computer Science and Artificial Intelligence Library (CSAIL) opracował zautomatyzowany system, który może zebrać więcej danych z obrazów używanych do szkolenia modeli uczenia maszynowego, syntetyzując ogromny zbiór danych odrębnych przykładów szkoleniowych.
Zbiór danych może być wykorzystany do poprawy szkolenia modeli uczenia maszynowego, umożliwiając im wykrywanie struktur anatomicznych w nowych skanach.
„Mamy nadzieję, że dzięki temu segmentacja obrazów stanie się bardziej dostępna w realistycznych sytuacjach, w których nie ma zbyt wielu danych treningowych” – powiedziała Amy Zhao, studentka Wydziału Elektrotechniki i Informatyki (EECS) oraz CSAIL.
READ MORE: Is Healthcare Any Closer to Achieving the Promises of Big Data Analytics?
„W naszym podejściu można nauczyć się naśladować zmiany w nieoznakowanych skanach, aby inteligentnie syntetyzować duży zbiór danych w celu trenowania sieci.”
Obecny kryzys w opiece zdrowotnej również skłonił liderów opieki zdrowotnej do opracowania wysokiej jakości, czystych zbiorów danych do rozwoju algorytmów. W marcu Biuro Polityki Naukowo-Technologicznej Białego Domu wezwało ekspertów do stworzenia narzędzi sztucznej inteligencji, które można zastosować do nowego zbioru danych COVID-19.
Zbiór ten jest obszerną kolekcją literatury na temat koronawirusów, którą można odczytać maszynowo, zawierającą ponad 29 000 artykułów.
„Trudno jest ręcznie przejrzeć ponad 20 000 artykułów i zsyntetyzować ich wyniki. Ostatnie postępy w technologii mogą być tu pomocne” – powiedział Anthony Goldbloom, współzałożyciel i dyrektor generalny w Kaggle, społeczności zajmującej się uczeniem maszynowym i nauką o danych, należącej do Google Cloud.
„Przedstawiamy czytelne wersje tych artykułów przed naszą społecznością ponad 4 milionów naukowców zajmujących się nauką o danych. Mamy nadzieję, że AI może zostać wykorzystana do pomocy w znalezieniu odpowiedzi na kluczowy zestaw pytań dotyczących COVID-19.”
Eliminowanie stronniczości w danych i algorytmach
READ MORE: Big Data Analytics Strategies are Maturing Quickly in Healthcare
As healthcare organizations become increasingly reliant on analytics algorithms to help them make care decisions, it’s critical that these tools are free of implicit or explicit bias that could further drive health inequities.
With the existing disparities that pervade the healthcare industry, developing flawless, bias-free algorithms is often challenging. W badaniu z 2019 r. naukowcy z University of California Berkeley odkryli uprzedzenia rasowe w platformie analityki predykcyjnej kierującej pacjentów wysokiego ryzyka do programów zarządzania opieką.
„Algorytmy mogą robić straszne rzeczy lub algorytmy mogą robić wspaniałe rzeczy. To, którą z tych rzeczy zrobią, zależy w zasadzie od nas” – powiedział Ziad Obermeyer, p.o. profesora nadzwyczajnego polityki zdrowotnej i zarządzania na UC Berkeley i główny autor badania. „Dokonujemy tak wielu wyborów, kiedy trenujemy algorytm, który wydaje się techniczny i mały. Ale te wybory sprawiają, że różnica między algorytmem, który jest dobry lub zły, stronniczy lub bezstronny.”
Aby usunąć stronniczość z narzędzi do analizy dużych danych, programiści mogą współpracować z ekspertami i użytkownikami końcowymi, aby zrozumieć, jakie środki kliniczne są ważne dla dostawców, Philip Thomas, PhD, MS, adiunkt w college’u informacji i informatyki na University of Massachusetts Amherst, powiedział HealthITAnalytics.
„Nie promujemy tego, jak zrównoważyć dokładność kontra dyskryminacja. Nie mówimy, jakie są właściwe definicje sprawiedliwego lub bezpiecznego. Naszym celem jest pozwolić osobie, która jest ekspertem w tej dziedzinie zdecydować”, powiedział.
Komunikowanie się z dostawcami i użytkownikami końcowymi podczas opracowywania algorytmu jest niezwykle ważne, często ten krok jest tylko połową bitwy. Zbieranie wysokiej jakości danych potrzebnych do opracowania bezstronnych narzędzi analitycznych jest czasochłonnym i trudnym zadaniem.
Aby przyspieszyć ten proces, naukowcy z Uniwersytetu Columbia opracowali algorytm uczenia maszynowego, który identyfikuje i przewiduje różnice w niepożądanych działaniach leków między mężczyznami i kobietami, analizując 50 lat raportów z bazy danych FDA.
„Zasadniczo chodzi o to, aby skorygować uprzedzenia związane z płcią przed wykonaniem jakiejkolwiek innej analizy statystycznej poprzez stworzenie zrównoważonego podzbioru pacjentów z równą ilością mężczyzn i kobiet dla każdego leku”, powiedziała Payal Chandak, starsza studentka informatyki biomedycznej na Uniwersytecie Columbia i druga współautorka pracy.
Rozwijanie narzędzi wysokiej jakości przy jednoczesnym zachowaniu prywatności pacjentów
Podczas opracowywania algorytmów kwestia prywatności i bezpieczeństwa danych znajduje się wysoko na liście problemów. Przeszkody prawne, kulturowe i związane z prywatnością mogą uniemożliwić naukowcom dostęp do dużych, zróżnicowanych zbiorów danych potrzebnych do szkolenia technologii analitycznych.
Ostatnio zespół z Uniwersytetu Iowa (UI) postanowił opracować rozwiązanie tego problemu. Dzięki grantowi w wysokości 1 miliona dolarów z Narodowej Fundacji Nauki (NSF), naukowcy z UI stworzą platformę uczenia maszynowego do szkolenia algorytmów z danymi z całego świata.
Grupa opracuje zdecentralizowane, asynchroniczne rozwiązanie o nazwie ImagiQ, które opiera się na ekosystemie modeli uczenia maszynowego, dzięki czemu instytucje mogą wybrać modele, które najlepiej sprawdzają się w ich populacjach. Organizacje będą mogły przesyłać i udostępniać sobie nawzajem modele, a nie dane pacjentów.
„Tradycyjne metody uczenia maszynowego wymagają scentralizowanej bazy danych, w której dane pacjentów mogą być bezpośrednio dostępne do szkolenia modelu uczenia maszynowego” – powiedział Stephen Baek, adiunkt inżynierii przemysłowej i systemowej na UI.
„Na takie metody mają wpływ kwestie praktyczne, takie jak prywatność pacjentów, bezpieczeństwo informacji, własność danych oraz obciążenie szpitali, które muszą tworzyć i utrzymywać te scentralizowane bazy danych.”
Badacze z Perelman School of Medicine na Uniwersytecie Pensylwanii również opracowali niedawno rozwiązanie mające na celu ochronę poufności danych pacjentów. W badaniu opublikowanym w Scientific Reports, zespół opisał nową technikę, która umożliwia klinicystom trenowanie modeli uczenia maszynowego przy jednoczesnym zachowaniu prywatności danych pacjenta.
Używając nowego podejścia zwanego federated learning, klinicyści mogą trenować algorytm na wielu zdecentralizowanych urządzeniach lub serwerach przechowujących lokalne próbki danych bez ich wymiany.
„Im więcej danych widzi model obliczeniowy, tym lepiej poznaje on problem i tym lepiej może odpowiedzieć na pytanie, do którego został stworzony” – powiedział starszy autor Spyridon Bakas, PhD, instruktor Radiologii i Patologii & Medycyny Laboratoryjnej w Perelman School of Medicine na Uniwersytecie Pensylwanii.
„Tradycyjnie, uczenie maszynowe wykorzystywało dane z jednej instytucji, a potem okazało się, że te modele nie działają lub nie generalizują dobrze na danych z innych instytucji.”
Uzyskanie zaufania świadczeniodawców i wsparcie dla narzędzi analitycznych
Tak jak istotne jest, aby pacjenci ufali, że algorytmy analityczne mogą zapewnić bezpieczeństwo ich danych, tak kluczowe jest, aby świadczeniodawcy ufali, że narzędzia te mogą dostarczać informacje w użyteczny, godny zaufania sposób.
W niedawnym raporcie American Hospital Association (AHA) organizacja zauważyła, że jednym ze sposobów, w jaki organizacje mogą zapewnić zaufanie świadczeniodawców do tych narzędzi, jest wykorzystanie sztucznej inteligencji do zarządzania niezrównoważonym obciążeniem pracą.
Dodatkowo, według AHA, liderzy mogą wykorzystać narzędzia sztucznej inteligencji do wspomagania procesu podejmowania decyzji klinicznych w punkcie opieki. Umożliwienie świadczeniodawcom przeglądania i udoskonalania narzędzi AI może również pomóc w zapewnieniu, że klinicyści są na pokładzie z technologią.
Badacze z MIT’s CSAIL również pracowali nad zwiększeniem zaufania świadczeniodawców do narzędzi analitycznych. Niedawno zespół opracował narzędzie do uczenia maszynowego, które potrafi dostosować, kiedy i jak często korzysta z pomocy ludzkich ekspertów w oparciu o takie czynniki, jak dostępność i poziom doświadczenia eksperta.
„Istnieje wiele przeszkód, które ze zrozumiałych względów uniemożliwiają pełną automatyzację w warunkach klinicznych, w tym kwestie zaufania i odpowiedzialności”, powiedział David Sontag, Von Helmholtz Associate Professor of Medical Engineering w Departamencie Inżynierii Elektrycznej i Informatyki.
„Mamy nadzieję, że nasza metoda zainspiruje praktyków uczenia maszynowego do większej kreatywności w integrowaniu ludzkiej wiedzy specjalistycznej w czasie rzeczywistym w swoich algorytmach.”
Podczas gdy organizacje opieki zdrowotnej w coraz większym stopniu wykorzystują narzędzia analityczne big data w celu uzyskania lepszego wglądu i usprawnienia procesów opieki, przezwyciężenie problemów związanych z uprzedzeniami, prywatnością i bezpieczeństwem oraz zaufaniem użytkowników będzie miało kluczowe znaczenie dla skutecznego wykorzystania tych modeli w opiece klinicznej.
Ponieważ badania nadal rozwijają się wokół AI, uczenia maszynowego i innych algorytmów analitycznych, branża będzie stale udoskonalać te narzędzia w celu poprawy opieki nad pacjentami.