Von Jessica Kent
Oktober 02, 2020 – Während das Potenzial von Big-Data-Analysen im Gesundheitswesen in zahllosen Studien gut dokumentiert wurde, haben die möglichen Risiken, die mit dem Einsatz dieser Tools einhergehen könnten, ebenso viel Aufmerksamkeit erhalten.
Big-Data-Analytics-Technologien haben sich als vielversprechend erwiesen, wenn es darum geht, verschiedene Bereiche der Gesundheitsversorgung zu verbessern, von der medizinischen Bildgebung und dem Management chronischer Krankheiten bis hin zur Bevölkerungsgesundheit und Präzisionsmedizin. Diese Algorithmen könnten die Effizienz der Versorgung erhöhen, den Verwaltungsaufwand reduzieren und die Diagnose von Krankheiten beschleunigen.
Trotz all des Guten, das diese Tools potenziell erreichen könnten, ist der Schaden, den diese Algorithmen anrichten könnten, fast genauso groß.
Bedenken über den Zugang zu und die Sammlung von Daten, implizite und explizite Voreingenommenheit und Probleme mit dem Vertrauen von Patienten und Anbietern in Analysetechnologien haben den Einsatz dieser Tools in der alltäglichen Gesundheitsversorgung behindert.
Forscher im Gesundheitswesen und Anbieterorganisationen arbeiten an Lösungen für diese Probleme, um den Einsatz von Big-Data-Analysen in der klinischen Versorgung für eine bessere Qualität und bessere Ergebnisse zu erleichtern.
Bereitstellung umfassender, hochwertiger Schulungsdaten
Mehr lesen: Wie Big-Data-Analytics-Modelle die Entscheidungsfindung im Gesundheitswesen beeinflussen können
Im Gesundheitswesen ist es allgemein bekannt, dass der Erfolg von Big-Data-Analytics-Tools vom Wert der Informationen abhängt, die für ihr Training verwendet werden. Algorithmen, die auf ungenauen, minderwertigen Daten trainiert werden, liefern fehlerhafte Ergebnisse, was zu einer unzureichenden Versorgung führt.
Doch die Beschaffung von qualitativ hochwertigen Trainingsdaten ist ein schwieriger, zeitintensiver Aufwand, so dass vielen Organisationen die Ressourcen fehlen, um effektive Modelle zu erstellen.
Forscher aus der gesamten Branche arbeiten daran, diese Herausforderung zu überwinden. Im Jahr 2019 hat ein Team der Computer Science and Artificial Intelligence Library (CSAIL) des MIT ein automatisiertes System entwickelt, das mehr Daten aus Bildern sammeln kann, die zum Trainieren von Machine-Learning-Modellen verwendet werden, und so einen massiven Datensatz mit eindeutigen Trainingsbeispielen zusammenstellt.
Der Datensatz kann verwendet werden, um das Training von Machine-Learning-Modellen zu verbessern, sodass sie anatomische Strukturen in neuen Scans erkennen können.
„Wir hoffen, dass dies die Bildsegmentierung in realistischen Situationen, in denen man nicht viele Trainingsdaten hat, zugänglicher macht“, sagt Amy Zhao, Doktorandin am Department of Electrical Engineering and Computer Science (EECS) und CSAIL.
Mehr lesen: Ist das Gesundheitswesen den Versprechungen von Big Data Analytics näher gekommen?
„In unserem Ansatz kann man lernen, die Variationen in unmarkierten Scans zu imitieren, um einen großen Datensatz intelligent zu synthetisieren, um das Netzwerk zu trainieren.“
Die aktuelle Krise im Gesundheitswesen hat auch die Verantwortlichen im Gesundheitswesen dazu veranlasst, qualitativ hochwertige, saubere Datensätze für die Entwicklung von Algorithmen zu entwickeln. Im März veröffentlichte das Office of Science and Technology Policy des Weißen Hauses einen Aufruf an Experten, KI-Tools zu entwickeln, die auf einen neuen COVID-19-Datensatz angewendet werden können.
Der Datensatz ist eine umfangreiche maschinenlesbare Coronavirus-Literatursammlung, die über 29.000 Artikel umfasst.
„Es ist schwierig für Menschen, manuell durch mehr als 20.000 Artikel zu gehen und ihre Ergebnisse zu synthetisieren. Jüngste Fortschritte in der Technologie können hier hilfreich sein“, sagte Anthony Goldbloom, Mitbegründer und Chief Executive Officer bei Kaggle, einer Community für maschinelles Lernen und Data Science, die zu Google Cloud gehört.
„Wir stellen maschinenlesbare Versionen dieser Artikel vor unsere Community von mehr als 4 Millionen Datenwissenschaftlern. Unsere Hoffnung ist, dass KI dabei helfen kann, Antworten auf eine Reihe wichtiger Fragen zu COVID-19 zu finden.“
Voreingenommenheit in Daten und Algorithmen ausschließen
Mehr lesen: Big-Data-Analytics-Strategien reifen schnell im Gesundheitswesen
Da Organisationen im Gesundheitswesen zunehmend auf analytische Algorithmen angewiesen sind, um Versorgungsentscheidungen zu treffen, ist es entscheidend, dass diese Tools frei von impliziten oder expliziten Verzerrungen sind, die gesundheitliche Ungleichheiten weiter vorantreiben könnten.
Angesichts der bestehenden Ungleichheiten, die das Gesundheitswesen durchdringen, ist die Entwicklung fehlerfreier, verzerrungsfreier Algorithmen oft eine Herausforderung. In einer Studie aus dem Jahr 2019 entdeckten Forscher der University of California Berkeley rassistische Verzerrungen in einer Predictive-Analytics-Plattform, die Hochrisikopatienten an Care-Management-Programme verweist.
„Algorithmen können schreckliche Dinge tun, oder Algorithmen können wunderbare Dinge tun. Welches dieser Dinge sie tun, hängt im Grunde von uns ab“, sagte Ziad Obermeyer, stellvertretender Associate Professor für Gesundheitspolitik und -management an der UC Berkeley und Hauptautor der Studie. „Wir treffen so viele Entscheidungen, wenn wir einen Algorithmus trainieren, die sich technisch und klein anfühlen. Aber diese Entscheidungen machen den Unterschied zwischen einem Algorithmus, der gut oder schlecht, voreingenommen oder unvoreingenommen ist.“
Um die Voreingenommenheit von Big-Data-Analyse-Tools zu beseitigen, können Entwickler mit Experten und Endnutzern zusammenarbeiten, um zu verstehen, welche klinischen Maßnahmen für die Anbieter wichtig sind, sagte Philip Thomas, PhD, MS, Assistenzprofessor am College of Information and Computer Science an der University of Massachusetts Amherst, gegenüber HealthITAnalytics.
„Wir fördern nicht, wie man Genauigkeit gegen Diskriminierung abwägt. Wir sagen nicht, was die richtigen Definitionen von fair oder sicher sind. Unser Ziel ist es, die Person, die ein Experte auf diesem Gebiet ist, entscheiden zu lassen“, sagte er.
Während die Kommunikation mit Anbietern und Endanwendern während der Algorithmusentwicklung extrem wichtig ist, ist dieser Schritt oft nur die halbe Miete. Um diesen Prozess zu beschleunigen, haben Forscher an der Columbia University einen Algorithmus für maschinelles Lernen entwickelt, der Unterschiede in den Nebenwirkungen von Medikamenten zwischen Männern und Frauen identifiziert und vorhersagt, indem er Berichte aus 50 Jahren in einer FDA-Datenbank analysiert.
„Im Wesentlichen geht es darum, geschlechtsspezifische Verzerrungen zu korrigieren, bevor man irgendeine andere statistische Analyse durchführt, indem man eine ausgewogene Teilmenge von Patienten mit gleichen Anteilen von Männern und Frauen für jedes Medikament erstellt“, sagt Payal Chandak, eine Studentin der biomedizinischen Informatik an der Columbia University und die andere Co-Autorin der Arbeit.
Qualitätswerkzeuge unter Wahrung der Privatsphäre der Patienten entwickeln
Bei der Entwicklung von Algorithmen steht die Frage des Datenschutzes und der Sicherheit ganz oben auf der Liste der Bedenken. Rechtliche, datenschutzrechtliche und kulturelle Hindernisse können Forscher davon abhalten, auf die großen, vielfältigen Datensätze zuzugreifen, die für das Training von Analysetechnologien benötigt werden.
Kürzlich machte sich ein Team der University of Iowa (UI) daran, eine Lösung für dieses Problem zu entwickeln. Mit einem Zuschuss von 1 Million Dollar von der National Science Foundation (NSF) werden die Forscher der UI eine Plattform für maschinelles Lernen schaffen, um Algorithmen mit Daten aus der ganzen Welt zu trainieren.
Die Gruppe wird eine dezentrale, asynchrone Lösung namens ImagiQ entwickeln, die sich auf ein Ökosystem von Modellen für maschinelles Lernen stützt, so dass Institutionen die Modelle auswählen können, die für ihre Populationen am besten funktionieren. Organisationen werden in der Lage sein, die Modelle, nicht die Patientendaten, hochzuladen und untereinander auszutauschen.
„Traditionelle Methoden des maschinellen Lernens erfordern eine zentralisierte Datenbank, auf die Patientendaten direkt für das Training eines maschinellen Lernmodells zugreifen können“, sagt Stephen Baek, Assistenzprofessor für Industrial and Systems Engineering an der UI.
„Solche Methoden werden durch praktische Fragen wie Patientendatenschutz, Informationssicherheit, Dateneigentum und die Belastung der Krankenhäuser, die diese zentralen Datenbanken erstellen und pflegen müssen, beeinträchtigt.“
Forscher von der Perelman School of Medicine an der University of Pennsylvania haben kürzlich ebenfalls eine Lösung zum Schutz der Patientendaten entwickelt. In einer Studie, die in Scientific Reports veröffentlicht wurde, beschreibt das Team eine neue Technik, die es Klinikern ermöglicht, maschinelle Lernmodelle zu trainieren und dabei die Privatsphäre der Patienten zu wahren.
Mit einem neuen Ansatz, der föderiertes Lernen genannt wird, können Kliniker einen Algorithmus über mehrere dezentrale Geräte oder Server trainieren, die lokale Datenproben enthalten, ohne diese auszutauschen.
„Je mehr Daten das Computermodell sieht, desto besser lernt es das Problem und desto besser kann es die Frage adressieren, für die es entwickelt wurde“, sagte Seniorautor Spyridon Bakas, PhD, ein Dozent für Radiologie und Pathologie & Labormedizin an der Perelman School of Medicine an der University of Pennsylvania.
„Traditionell wurden beim maschinellen Lernen Daten aus einer einzigen Einrichtung verwendet, und dann stellte sich heraus, dass diese Modelle bei Daten aus anderen Einrichtungen nicht gut funktionieren oder verallgemeinert werden können.“
Vertrauen und Unterstützung der Anbieter für Analysetools
Genauso wie es für Patienten wichtig ist, darauf zu vertrauen, dass Analysealgorithmen ihre Daten sicher aufbewahren können, ist es für Anbieter entscheidend, darauf zu vertrauen, dass diese Tools Informationen auf nützliche, vertrauenswürdige Weise liefern können.
In einem aktuellen Bericht der American Hospital Association (AHA) stellt die Organisation fest, dass eine Möglichkeit, das Vertrauen der Leistungserbringer in diese Tools zu sichern, darin besteht, KI zu nutzen, um untragbare Arbeitsbelastungen zu bewältigen.
Zusätzlich könnten Führungskräfte KI-Tools nutzen, um die klinische Entscheidungsfindung am Ort der Versorgung zu verbessern, so die AHA. Indem man den Leistungserbringern erlaubt, KI-Tools zu überprüfen und zu verfeinern, könnte man auch sicherstellen, dass die Kliniker mit der Technologie einverstanden sind.
Forscher des CSAIL des MIT haben ebenfalls daran gearbeitet, das Vertrauen der Leistungserbringer in Analysetools zu erhöhen. Ein Team hat kürzlich ein maschinelles Lernwerkzeug entwickelt, das sich anpasst, wann und wie oft es auf menschliche Experten zurückgreift, basierend auf Faktoren wie der Verfügbarkeit und dem Erfahrungsgrad des Experten.
„Es gibt viele Hindernisse, die verständlicherweise eine vollständige Automatisierung in klinischen Umgebungen verhindern, einschließlich Fragen des Vertrauens und der Verantwortlichkeit“, sagte David Sontag, der Von Helmholtz Associate Professor für Medizintechnik in der Abteilung für Elektrotechnik und Informatik.
„Wir hoffen, dass unsere Methode Praktiker des maschinellen Lernens dazu inspirieren wird, kreativer zu werden, um menschliche Expertise in Echtzeit in ihre Algorithmen zu integrieren.“
Da Organisationen des Gesundheitswesens zunehmend Big-Data-Analysetools einsetzen, um bessere Einblicke zu gewinnen und die Pflegeprozesse zu optimieren, wird die Überwindung von Fragen der Voreingenommenheit, des Datenschutzes und der Sicherheit sowie des Vertrauens der Nutzer entscheidend für den erfolgreichen Einsatz dieser Modelle in der klinischen Pflege sein.
Während sich die Forschung im Bereich der KI, des maschinellen Lernens und anderer Analysealgorithmen weiterentwickelt, wird die Branche diese Tools für eine verbesserte Patientenversorgung weiter verfeinern.