Par Jessica Kent
October 02, 2020 – Alors que le potentiel de l’analyse des big data dans les soins de santé a été bien documenté dans d’innombrables études, les risques possibles qui pourraient découler de l’utilisation de ces outils ont reçu tout autant d’attention.
Les technologies d’analyse des big data ont démontré leur promesse d’améliorer de multiples domaines de soins, de l’imagerie médicale à la gestion des maladies chroniques en passant par la santé des populations et la médecine de précision. Ces algorithmes pourraient accroître l’efficacité de la prestation des soins, réduire les charges administratives et accélérer le diagnostic des maladies.
Malgré tout le bien que ces outils pourraient potentiellement réaliser, le mal que ces algorithmes pourraient causer est presque aussi grand.
Les inquiétudes concernant l’accès et la collecte des données, les préjugés implicites et explicites, et les problèmes de confiance des patients et des prestataires dans les technologies d’analyse ont entravé l’utilisation de ces outils dans la prestation quotidienne des soins de santé.
Les chercheurs en soins de santé et les organisations de fournisseurs s’efforcent de trouver des solutions à ces problèmes, facilitant l’utilisation de l’analytique des big data dans les soins cliniques pour une meilleure qualité et de meilleurs résultats.
Fournir des données de formation complètes et de qualité
LIRE PLUS : Comment les modèles d’analyse des big data peuvent avoir un impact sur la prise de décision dans le domaine de la santé
Dans le domaine de la santé, il est largement admis que le succès des outils d’analyse des big data dépend de la valeur des informations utilisées pour les former. Les algorithmes entraînés sur des données inexactes et de mauvaise qualité produiront des résultats erronés, ce qui entraînera une prestation de soins inadéquate.
Cependant, l’obtention de données d’entraînement de qualité est un effort difficile et chronophage, ce qui laisse de nombreuses organisations sans les ressources nécessaires pour construire des modèles efficaces.
Des chercheurs de tout le secteur s’efforcent de surmonter ce défi. En 2019, une équipe de la Computer Science and Artificial Intelligence Library (CSAIL) du MIT a mis au point un système automatisé capable de recueillir davantage de données à partir des images utilisées pour former des modèles d’apprentissage automatique, en synthétisant un ensemble massif de données d’exemples de formation distincts.
L’ensemble de données peut être utilisé pour améliorer la formation des modèles d’apprentissage automatique, leur permettant de détecter des structures anatomiques dans de nouveaux scans.
« Nous espérons que cela rendra la segmentation d’images plus accessible dans des situations réalistes où vous n’avez pas beaucoup de données d’entraînement », a déclaré Amy Zhao, une étudiante diplômée du département de génie électrique et d’informatique (EECS) et du CSAIL.
LIRE PLUS : Les soins de santé sont-ils plus près de réaliser les promesses de l’analyse des Big Data ?
« Dans notre approche, vous pouvez apprendre à imiter les variations des balayages non étiquetés pour synthétiser intelligemment un grand ensemble de données afin d’entraîner votre réseau. »
La crise actuelle des soins de santé a également incité les responsables des soins de santé à développer des ensembles de données propres et de qualité pour le développement d’algorithmes. En mars, le Bureau de la politique scientifique et technologique de la Maison Blanche a lancé un appel à l’action pour que les experts construisent des outils d’IA pouvant être appliqués à un nouveau jeu de données COVID-19.
Ce jeu de données est une vaste collection de littérature sur les coronavirus lisible par machine, comprenant plus de 29 000 articles.
« Il est difficile pour les gens de parcourir manuellement plus de 20 000 articles et de synthétiser leurs conclusions. Les progrès récents de la technologie peuvent être utiles ici », a déclaré Anthony Goldbloom, cofondateur et directeur général de Kaggle, une communauté d’apprentissage automatique et de science des données appartenant à Google Cloud.
« Nous mettons des versions lisibles par machine de ces articles devant notre communauté de plus de 4 millions de scientifiques des données. Notre espoir est que l’IA puisse être utilisée pour aider à trouver des réponses à un ensemble clé de questions sur le COVID-19. »
Éliminer les biais dans les données et les algorithmes
LIRE PLUS : Les stratégies d’analyse des big data arrivent rapidement à maturité dans le secteur des soins de santé
Alors que les organisations de soins de santé dépendent de plus en plus des algorithmes d’analyse pour les aider à prendre des décisions en matière de soins, il est essentiel que ces outils soient exempts de tout préjugé implicite ou explicite qui pourrait favoriser davantage les inégalités en matière de santé.
Avec les disparités existantes qui imprègnent le secteur des soins de santé, le développement d’algorithmes sans faille et sans préjugés est souvent difficile. Dans une étude de 2019, des chercheurs de l’Université de Californie Berkeley ont découvert un biais racial dans une plateforme d’analyse prédictive orientant les patients à haut risque vers des programmes de gestion des soins.
« Les algorithmes peuvent faire des choses terribles, ou les algorithmes peuvent faire des choses merveilleuses. Laquelle de ces choses ils font dépend essentiellement de nous », a déclaré Ziad Obermeyer, professeur associé intérimaire de politique et de gestion de la santé à UC Berkeley et auteur principal de l’étude. « Nous faisons tellement de choix lorsque nous formons un algorithme qui semblent techniques et mineurs. Mais ces choix font la différence entre un algorithme qui est bon ou mauvais, biaisé ou non biaisé. »
Pour éliminer les biais des outils d’analyse des big data, les développeurs peuvent travailler avec des experts et des utilisateurs finaux pour comprendre quelles mesures cliniques sont importantes pour les fournisseurs, Philip Thomas, PhD, MS, professeur adjoint au collège d’information et d’informatique de l’Université du Massachusetts Amherst, a déclaré à HealthITAnalytics.
« Nous ne faisons pas la promotion de la façon d’équilibrer l’exactitude par rapport à la discrimination. Nous ne disons pas quelles sont les bonnes définitions de juste ou sûr. Notre objectif est de laisser la personne qui est un expert dans ce domaine décider « , a-t-il dit.
Bien que la communication avec les fournisseurs et les utilisateurs finaux pendant le développement de l’algorithme soit extrêmement importante, souvent cette étape n’est que la moitié de la bataille. La collecte des données de haute qualité nécessaires au développement d’outils d’analyse impartiaux est une tâche longue et difficile.
Pour accélérer ce processus, des chercheurs de l’université Columbia ont mis au point un algorithme d’apprentissage automatique qui identifie et prédit les différences d’effets indésirables des médicaments entre les hommes et les femmes en analysant 50 ans de rapports dans une base de données de la FDA.
« Essentiellement, l’idée est de corriger les biais liés au sexe avant d’effectuer toute autre analyse statistique en construisant un sous-ensemble équilibré de patients avec des parts égales d’hommes et de femmes pour chaque médicament », a déclaré Payal Chandak, major en informatique biomédicale à l’université Columbia et autre coauteur de l’article.
Développer des outils de qualité tout en préservant la vie privée des patients
Dans le développement d’algorithmes, la question de la confidentialité et de la sécurité des données figure en tête de liste des préoccupations. Des obstacles juridiques, culturels et de protection de la vie privée peuvent empêcher les chercheurs d’accéder aux grands ensembles de données diversifiés nécessaires à l’entraînement des technologies analytiques.
Récemment, une équipe de l’Université de l’Iowa (UI) a entrepris de développer une solution à ce problème. Grâce à une subvention d’un million de dollars de la National Science Foundation (NSF), les chercheurs de l’UI vont créer une plateforme d’apprentissage automatique pour entraîner des algorithmes avec des données provenant du monde entier.
Le groupe va développer une solution décentralisée et asynchrone appelée ImagiQ, qui s’appuie sur un écosystème de modèles d’apprentissage automatique afin que les institutions puissent sélectionner les modèles qui fonctionnent le mieux pour leurs populations. Les organisations pourront télécharger et partager les modèles, et non les données des patients, entre elles.
« Les méthodes traditionnelles d’apprentissage automatique nécessitent une base de données centralisée où l’on peut accéder directement aux données des patients pour entraîner un modèle d’apprentissage automatique », a déclaré Stephen Baek, professeur adjoint de génie industriel et des systèmes à l’UI.
« De telles méthodes sont impactées par des questions pratiques telles que la confidentialité des patients, la sécurité des informations, la propriété des données et la charge des hôpitaux qui doivent créer et maintenir ces bases de données centralisées. »
Des chercheurs de la Perelman School of Medicine de l’Université de Pennsylvanie ont également récemment développé une solution pour protéger la confidentialité des patients. Dans une étude publiée dans Scientific Reports, l’équipe a décrit une nouvelle technique qui permet aux cliniciens d’entraîner des modèles d’apprentissage automatique tout en préservant la confidentialité des données des patients.
Utilisant une approche émergente appelée apprentissage fédéré, les cliniciens pourraient entraîner un algorithme sur plusieurs appareils ou serveurs décentralisés détenant des échantillons de données locales sans les échanger.
« Plus le modèle informatique voit de données, mieux il apprend le problème et mieux il peut répondre à la question à laquelle il a été conçu », a déclaré l’auteur principal Spyridon Bakas, PhD, instructeur de radiologie et de pathologie & médecine de laboratoire à la Perelman School of Medicine de l’Université de Pennsylvanie.
« Traditionnellement, l’apprentissage automatique a utilisé les données d’une seule institution, puis il est devenu évident que ces modèles ne sont pas performants ou ne se généralisent pas bien sur les données d’autres institutions. »
Assurer que les prestataires ont confiance et soutiennent les outils d’analyse
De même qu’il est essentiel que les patients aient confiance que les algorithmes d’analyse peuvent garder leurs données en sécurité, il est crucial que les prestataires aient confiance que ces outils peuvent fournir des informations de manière utile et digne de confiance.
Dans un rapport récent de l’American Hospital Association (AHA), l’organisation a noté qu’une façon pour les organisations de garantir la confiance des prestataires dans ces outils est d’utiliser l’IA pour gérer les charges de travail insoutenables.
En outre, les dirigeants pourraient exploiter les outils d’IA pour augmenter la prise de décision clinique au point de soins, a déclaré l’AHA. Permettre aux fournisseurs d’examiner et d’affiner les outils d’IA pourrait également aider à s’assurer que les cliniciens sont embarqués dans la technologie.
Des chercheurs du CSAIL du MIT ont également travaillé pour accroître la confiance des fournisseurs dans les outils d’analyse. Une équipe a récemment développé un outil d’apprentissage automatique qui peut adapter quand et à quelle fréquence il s’en remet aux experts humains en fonction de facteurs tels que la disponibilité de l’expert et son niveau d’expérience.
« De nombreux obstacles interdisent, à juste titre, l’automatisation complète dans les milieux cliniques, notamment les questions de confiance et de responsabilité », a déclaré David Sontag, professeur associé Von Helmholtz de génie médical au département de génie électrique et d’informatique.
« Nous espérons que notre méthode inspirera les praticiens de l’apprentissage automatique à faire preuve de plus de créativité pour intégrer l’expertise humaine en temps réel dans leurs algorithmes. »
Avec les organisations de soins de santé qui exploitent de plus en plus les outils d’analyse des big data pour améliorer les perspectives et rationaliser les processus de soins, surmonter les problèmes de partialité, de confidentialité et de sécurité, et de confiance des utilisateurs sera essentiel pour une utilisation réussie de ces modèles dans les soins cliniques.
Alors que la recherche continue d’évoluer autour de l’IA, de l’apprentissage automatique et d’autres algorithmes d’analyse, l’industrie continuera de perfectionner ces outils pour améliorer les soins aux patients.
.