Di Jessica Kent
2 ottobre, 2020 – Mentre il potenziale dei big data analytics nella sanità è stato ben documentato in innumerevoli studi, i possibili rischi che potrebbero derivare dall’uso di questi strumenti hanno ricevuto altrettanta attenzione.
Le tecnologie di analisi dei big data hanno dimostrato la loro promessa nel migliorare molteplici aree di cura, dall’imaging medico e dalla gestione delle malattie croniche alla salute della popolazione e alla medicina di precisione. Questi algoritmi potrebbero aumentare l’efficienza dell’erogazione delle cure, ridurre gli oneri amministrativi e accelerare la diagnosi delle malattie.
Nonostante tutto il bene che questi strumenti potrebbero potenzialmente ottenere, il danno che questi algoritmi potrebbero causare è quasi altrettanto grande.
Le preoccupazioni sull’accesso e la raccolta dei dati, i pregiudizi impliciti ed espliciti e i problemi di fiducia dei pazienti e dei fornitori nelle tecnologie di analisi hanno ostacolato l’uso di questi strumenti nella fornitura quotidiana di assistenza sanitaria.
Ricercatori sanitari e organizzazioni di fornitori stanno lavorando per trovare soluzioni a questi problemi, facilitando l’uso dei big data analytics nella cura clinica per una migliore qualità e risultati.
Fornire dati di formazione completi e di qualità
Leggi di più: How Big Data Analytics Models Can Impact Healthcare Decision-Making
In sanità, è ampiamente riconosciuto che il successo degli strumenti di big data analytics dipende dal valore delle informazioni utilizzate per addestrarli. Gli algoritmi addestrati su dati imprecisi e di scarsa qualità produrranno risultati errati, portando a un’erogazione inadeguata delle cure.
Tuttavia, ottenere dati di formazione di qualità è uno sforzo difficile e dispendioso in termini di tempo, lasciando molte organizzazioni senza le risorse per costruire modelli efficaci.
I ricercatori di tutto il settore stanno lavorando per superare questa sfida. Nel 2019, un team della Computer Science and Artificial Intelligence Library (CSAIL) del MIT ha sviluppato un sistema automatizzato che può raccogliere più dati dalle immagini utilizzate per addestrare i modelli di apprendimento automatico, sintetizzando un massiccio set di dati di esempi di formazione distinti.
Il set di dati può essere utilizzato per migliorare la formazione dei modelli di apprendimento automatico, consentendo loro di rilevare strutture anatomiche in nuove scansioni.
“Speriamo che questo renderà la segmentazione delle immagini più accessibile in situazioni realistiche in cui non si hanno molti dati di allenamento”, ha detto Amy Zhao, uno studente laureato nel Dipartimento di Ingegneria Elettrica e Informatica (EECS) e CSAIL.
Leggi di più: Is Healthcare Any Closer to Achieving the Promises of Big Data Analytics?
“Nel nostro approccio, si può imparare a imitare le variazioni nelle scansioni non etichettate per sintetizzare in modo intelligente un grande set di dati per addestrare la rete.”
L’attuale crisi sanitaria ha anche spinto i leader sanitari a sviluppare set di dati di qualità e puliti per lo sviluppo di algoritmi. A marzo, l’Office of Science and Technology Policy della Casa Bianca ha lanciato un appello agli esperti per costruire strumenti di IA che possano essere applicati a un nuovo set di dati COVID-19.
Il set di dati è un’ampia raccolta di letteratura sui coronavirus leggibile a macchina, che comprende oltre 29.000 articoli.
“È difficile per le persone passare manualmente attraverso più di 20.000 articoli e sintetizzare i loro risultati. I recenti progressi nella tecnologia possono essere utili qui”, ha detto Anthony Goldbloom, co-fondatore e amministratore delegato di Kaggle, una comunità di apprendimento automatico e scienza dei dati di proprietà di Google Cloud.
“Stiamo mettendo le versioni leggibili dalla macchina di questi articoli di fronte alla nostra comunità di più di 4 milioni di scienziati dei dati. La nostra speranza è che l’AI possa essere usata per aiutare a trovare risposte a una serie di domande chiave su COVID-19.”
Eliminare i pregiudizi nei dati e negli algoritmi
Leggi di più: Big Data Analytics Strategies are Maturing Quickly in Healthcare
Come le organizzazioni sanitarie diventano sempre più dipendenti dagli algoritmi di analisi per aiutarli a prendere decisioni di cura, è fondamentale che questi strumenti siano privi di pregiudizi impliciti o espliciti che potrebbero ulteriormente guidare le disuguaglianze di salute.
Con le disparità esistenti che pervadono il settore sanitario, sviluppare algoritmi impeccabili e privi di pregiudizi è spesso impegnativo. In uno studio del 2019, i ricercatori dell’Università della California Berkeley hanno scoperto una distorsione razziale in una piattaforma di analisi predittiva che rinvia i pazienti ad alto rischio ai programmi di gestione della cura.
“Gli algoritmi possono fare cose terribili, o gli algoritmi possono fare cose meravigliose. Quale di queste cose fanno dipende fondamentalmente da noi”, ha detto Ziad Obermeyer, professore associato di politica sanitaria e gestione alla UC Berkeley e autore principale dello studio. “Facciamo così tante scelte quando addestriamo un algoritmo che sembrano tecniche e piccole. Ma queste scelte fanno la differenza tra un algoritmo che è buono o cattivo, di parte o imparziale.”
Per rimuovere i pregiudizi dagli strumenti di analisi dei grandi dati, gli sviluppatori possono lavorare con esperti e utenti finali per capire quali misure cliniche sono importanti per i fornitori, Philip Thomas, PhD, MS, assistente professore al college di informazione e informatica presso l’Università del Massachusetts Amherst, ha detto HealthITAnalytics.
“Non stiamo promuovendo come bilanciare la precisione rispetto alla discriminazione. Non stiamo dicendo quali sono le giuste definizioni di giusto o sicuro. Il nostro obiettivo è lasciare che sia la persona esperta in quel campo a decidere”, ha detto.
Mentre la comunicazione con i fornitori e gli utenti finali durante lo sviluppo dell’algoritmo è estremamente importante, spesso questo passo è solo metà della battaglia. Raccogliere i dati di alta qualità necessari per sviluppare strumenti di analisi imparziali è un compito lungo e difficile.
Per accelerare questo processo, i ricercatori della Columbia University hanno sviluppato un algoritmo di apprendimento automatico che identifica e prevede le differenze negli effetti avversi dei farmaci tra uomini e donne analizzando 50 anni di rapporti in un database della FDA.
“Essenzialmente l’idea è quella di correggere i pregiudizi di genere prima di fare qualsiasi altra analisi statistica costruendo un sottoinsieme bilanciato di pazienti con parti uguali di uomini e donne per ogni farmaco”, ha detto Payal Chandak, uno studente senior di informatica biomedica alla Columbia University e l’altro co-autore del documento.
Sviluppare strumenti di qualità preservando la privacy del paziente
Nello sviluppo degli algoritmi, la questione della privacy e della sicurezza dei dati è in cima alla lista delle preoccupazioni. Ostacoli legali, culturali e di privacy possono impedire ai ricercatori di accedere ai grandi e diversi set di dati necessari per addestrare le tecnologie analitiche.
Di recente, un team dell’Università dello Iowa (UI) ha cercato di sviluppare una soluzione a questo problema. Con una sovvenzione di 1 milione di dollari dalla National Science Foundation (NSF), i ricercatori dell’UI creeranno una piattaforma di apprendimento automatico per addestrare algoritmi con dati provenienti da tutto il mondo.
Il gruppo svilupperà una soluzione decentralizzata e asincrona chiamata ImagiQ, che si basa su un ecosistema di modelli di apprendimento automatico in modo che le istituzioni possano selezionare i modelli che funzionano meglio per le loro popolazioni. Le organizzazioni saranno in grado di caricare e condividere i modelli, non i dati dei pazienti, tra di loro.
“I metodi tradizionali di apprendimento automatico richiedono un database centralizzato in cui i dati dei pazienti possono essere direttamente accessibili per la formazione di un modello di apprendimento automatico”, ha detto Stephen Baek, assistente professore di ingegneria industriale e dei sistemi all’UI.
“Tali metodi sono influenzati da questioni pratiche come la privacy del paziente, la sicurezza delle informazioni, la proprietà dei dati e l’onere per gli ospedali che devono creare e mantenere questi database centralizzati.”
I ricercatori della Perelman School of Medicine dell’Università della Pennsylvania hanno anche recentemente sviluppato una soluzione per proteggere la riservatezza dei pazienti. In uno studio pubblicato su Scientific Reports, il team ha descritto una nuova tecnica che permette ai medici di addestrare modelli di apprendimento automatico preservando la privacy dei dati dei pazienti.
Utilizzando un approccio emergente chiamato apprendimento federato, i medici potrebbero addestrare un algoritmo attraverso più dispositivi decentralizzati o server che detengono campioni di dati locali senza scambiarli.
“Più dati vede il modello computazionale, meglio impara il problema, e meglio può affrontare la domanda a cui è stato progettato per rispondere”, ha detto l’autore senior Spyridon Bakas, PhD, un istruttore di Radiologia e Patologia & Medicina di Laboratorio alla Perelman School of Medicine dell’Università della Pennsylvania.
“Tradizionalmente, l’apprendimento automatico ha utilizzato i dati di una singola istituzione, e poi è diventato evidente che quei modelli non funzionano o generalizzano bene sui dati di altre istituzioni.”
Assicurare la fiducia dei fornitori e sostenere gli strumenti di analisi
Così come è essenziale che i pazienti abbiano fiducia che gli algoritmi di analisi possano mantenere i loro dati al sicuro, è fondamentale che i fornitori abbiano fiducia che questi strumenti possano fornire informazioni in modo utile e affidabile.
In un recente rapporto dell’American Hospital Association (AHA), l’organizzazione ha osservato che un modo in cui le organizzazioni potrebbero garantire la fiducia dei fornitori in questi strumenti è quello di utilizzare l’IA per gestire i carichi di lavoro insostenibili.
Inoltre, i leader potrebbero sfruttare gli strumenti di IA per aumentare il processo decisionale clinico al punto di cura, AHA ha dichiarato. Permettere ai fornitori di rivedere e perfezionare gli strumenti AI potrebbe anche aiutare a garantire che i medici siano a bordo con la tecnologia.
I ricercatori del CSAIL del MIT hanno anche lavorato per aumentare la fiducia dei fornitori negli strumenti di analisi. Un team ha recentemente sviluppato uno strumento di apprendimento automatico che può adattare quando e quanto spesso rinvia agli esperti umani in base a fattori come la disponibilità dell’esperto e il livello di esperienza.
“Ci sono molti ostacoli che comprensibilmente proibiscono la piena automazione nelle impostazioni cliniche, comprese le questioni di fiducia e responsabilità”, ha detto David Sontag, il Von Helmholtz Associate Professor of Medical Engineering nel Dipartimento di Ingegneria Elettrica e Informatica.
“Speriamo che il nostro metodo ispirerà i professionisti dell’apprendimento automatico ad essere più creativi nell’integrare in tempo reale le competenze umane nei loro algoritmi”.”
Con le organizzazioni sanitarie che sfruttano sempre di più gli strumenti di analisi dei big data per migliorare gli insight e snellire i processi di cura, superare i problemi di bias, privacy e sicurezza, e la fiducia degli utenti sarà fondamentale per il successo dell’uso di questi modelli nella cura clinica.
Come la ricerca continua ad evolversi intorno all’AI, all’apprendimento automatico e ad altri algoritmi di analisi, l’industria continuerà a perfezionare questi strumenti per migliorare la cura del paziente.