Por Jessica Kent
Outubro 02, 2020 – Embora o potencial para grandes análises de dados nos cuidados de saúde tenha sido bem documentado em inúmeros estudos, os possíveis riscos que poderiam advir da utilização destas ferramentas têm recebido a mesma atenção.
As grandes tecnologias de análise de dados têm demonstrado a sua promessa de melhorar múltiplas áreas de cuidados, desde a imagiologia médica e gestão de doenças crónicas até à saúde da população e medicina de precisão. Estes algoritmos poderiam aumentar a eficiência da prestação de cuidados, reduzir a carga administrativa, e acelerar o diagnóstico de doenças.
Embora todas as vantagens que estas ferramentas poderiam potencialmente alcançar, o prejuízo que estes algoritmos poderiam causar é quase tão grande.
Concertezas sobre o acesso e recolha de dados, preconceitos implícitos e explícitos, e problemas com a confiança dos pacientes e fornecedores nas tecnologias analíticas têm impedido a utilização destas ferramentas na prestação diária de cuidados de saúde.
Investigadores e organizações de prestadores de cuidados de saúde estão a trabalhar para encontrar soluções para estas questões, facilitando a utilização de grandes análises de dados nos cuidados clínicos para melhor qualidade e resultados.
Fornecer dados de formação abrangentes e de qualidade
LER MAIS: Como os grandes modelos de análise de dados podem ter impacto na tomada de decisões nos cuidados de saúde
Nos cuidados de saúde, é amplamente compreendido que o sucesso das grandes ferramentas de análise de dados depende do valor da informação utilizada para a sua formação. Algoritmos treinados em dados incorrectos e de má qualidade produzirão resultados errados, levando a uma prestação de cuidados inadequada.
No entanto, a obtenção de dados de formação de qualidade é um esforço difícil e demorado, deixando muitas organizações sem recursos para construir modelos eficazes.
Investigadores de toda a indústria estão a trabalhar para ultrapassar este desafio. Em 2019, uma equipa da Computer Science and Artificial Intelligence Library (CSAIL) do MIT desenvolveu um sistema automatizado que pode recolher mais dados a partir de imagens utilizadas para formar modelos de aprendizagem de máquinas, sintetizando um conjunto de dados maciço de exemplos de formação distintos.
O conjunto de dados pode ser utilizado para melhorar a formação de modelos de aprendizagem de máquinas, permitindo-lhes detectar estruturas anatómicas em novas varreduras.
“Esperamos que isto torne a segmentação de imagens mais acessível em situações realistas em que não se dispõe de muitos dados de formação”, disse Amy Zhao, uma estudante graduada do Departamento de Engenharia Electrotécnica e Informática (EECS) e CSAIL.
LER MAIS: Estará a Saúde Mais Perto de Alcançar as Promessas de Grandes Análises de Dados?
“Na nossa abordagem, pode aprender a imitar as variações das varreduras não rotuladas para sintetizar inteligentemente um grande conjunto de dados para treinar a sua rede”
A actual crise dos cuidados de saúde também levou os líderes dos cuidados de saúde a desenvolver conjuntos de dados limpos e de qualidade para o desenvolvimento de algoritmos. Em Março, o Gabinete de Política Científica e Tecnológica da Casa Branca lançou um apelo à acção para que peritos construíssem ferramentas de IA que pudessem ser aplicadas a um novo conjunto de dados COVID-19.
O conjunto de dados é uma extensa colecção de literatura sobre coronavírus legível por máquina, incluindo mais de 29.000 artigos.
“É difícil para as pessoas passarem manualmente por mais de 20.000 artigos e sintetizarem as suas descobertas. Os recentes avanços na tecnologia podem ser úteis aqui”, disse Anthony Goldbloom, co-fundador e director executivo da Kaggle, uma comunidade de aprendizagem de máquinas e ciência de dados propriedade da Google Cloud.
“Estamos a colocar versões legíveis por máquina destes artigos em frente da nossa comunidade de mais de 4 milhões de cientistas de dados. A nossa esperança é que a IA possa ser usada para ajudar a encontrar respostas a um conjunto chave de perguntas sobre COVID-19”
Precisão de viés em dados e algoritmos
LER MAIS: Big Data Analytics Strategies are Maturingly in Healthcare
As organizações de saúde tornam-se cada vez mais dependentes de algoritmos analíticos para as ajudar a tomar decisões de cuidados, é fundamental que estas ferramentas estejam livres de enviesamentos implícitos ou explícitos que possam impulsionar ainda mais as desigualdades na saúde.
Com as disparidades existentes que permeiam a indústria da saúde, desenvolver algoritmos sem falhas e sem enviesamentos é muitas vezes um desafio. Num estudo de 2019, investigadores da Universidade da Califórnia em Berkeley descobriram preconceitos raciais numa plataforma analítica preditiva que referia pacientes de alto risco a programas de gestão de cuidados.
“Algoritmos podem fazer coisas terríveis, ou algoritmos podem fazer coisas maravilhosas. Qual dessas coisas eles fazem depende basicamente de nós”, disse Ziad Obermeyer, professor associado interino de política e gestão da saúde na UC Berkeley e autor principal do estudo. “Fazemos tantas escolhas quando treinamos um algoritmo que nos parece técnico e pequeno”. Mas estas escolhas fazem a diferença entre um algoritmo que é bom ou mau, tendencioso ou imparcial”
Para remover o tendenciosismo das grandes ferramentas de análise de dados, os programadores podem trabalhar com especialistas e utilizadores finais para compreender que medidas clínicas são importantes para os fornecedores, Philip Thomas, PhD, MS, professor assistente na faculdade de informação e informática da Universidade de Massachusetts Amherst, disse HealthITAnalytics.
“Não estamos a promover a forma de equilibrar precisão versus discriminação. Não estamos a dizer quais são as definições correctas de justo ou seguro. O nosso objectivo é deixar a pessoa que é especialista nessa área decidir”, disse ele.
Embora a comunicação com fornecedores e utilizadores finais durante o desenvolvimento de algoritmos seja extremamente importante, muitas vezes este passo é apenas metade da batalha. A recolha dos dados de alta qualidade necessários para desenvolver ferramentas analíticas imparciais é uma tarefa morosa e difícil.
Para acelerar este processo, os investigadores da Universidade de Columbia desenvolveram um algoritmo de aprendizagem de máquinas que identifica e prevê diferenças nos efeitos adversos das drogas entre homens e mulheres, analisando 50 anos de relatórios numa base de dados da FDA.
“Essencialmente a ideia é corrigir os preconceitos de género antes de se fazer qualquer outra análise estatística, construindo um subconjunto equilibrado de pacientes com partes iguais homens e mulheres para cada fármaco”, disse Payal Chandak, um licenciado em informática biomédica da Universidade de Columbia e o outro co-autor do artigo.
Desenvolver ferramentas de qualidade, preservando ao mesmo tempo a privacidade dos pacientes
No desenvolvimento do algoritmo, a questão da privacidade e segurança dos dados está no topo da lista de preocupações. Os obstáculos jurídicos, de privacidade e culturais podem impedir os investigadores de aceder aos grandes e diversos conjuntos de dados necessários para formar tecnologias analíticas.
Recentemente, uma equipa da Universidade de Iowa (UI) decidiu desenvolver uma solução para este problema. Com uma bolsa de $1 milhão da National Science Foundation (NSF), os investigadores da IU irão criar uma plataforma de aprendizagem de máquinas para formar algoritmos com dados de todo o mundo.
O grupo irá desenvolver uma solução descentralizada e assíncrona chamada ImagiQ, que se baseia num ecossistema de modelos de aprendizagem de máquinas para que as instituições possam seleccionar modelos que funcionem melhor para as suas populações. As organizações poderão carregar e partilhar os modelos, e não os dados dos pacientes, entre si.
“Os métodos tradicionais de aprendizagem de máquinas requerem uma base de dados centralizada onde os dados dos pacientes podem ser directamente acedidos para a formação de um modelo de aprendizagem de máquinas”, disse Stephen Baek, professor assistente de engenharia industrial e de sistemas na UI.
“Tais métodos são afectados por questões práticas como a privacidade do paciente, segurança da informação, propriedade dos dados e o fardo sobre os hospitais que devem criar e manter estas bases de dados centralizadas”
Investigadores da Faculdade de Medicina Perelman da Universidade da Pensilvânia também desenvolveram recentemente uma solução para proteger a confidencialidade do paciente. Num estudo publicado em Relatórios Científicos, a equipa descreveu uma nova técnica que permite aos clínicos treinar modelos de aprendizagem de máquinas, preservando simultaneamente a privacidade dos dados dos pacientes.
Utilizando uma abordagem emergente chamada aprendizagem federada, os clínicos poderiam treinar um algoritmo através de múltiplos dispositivos descentralizados ou servidores contendo amostras de dados locais sem os trocar.
“Quanto mais dados o modelo computacional vê, melhor aprende o problema, e melhor pode abordar a questão que foi concebido para responder”, disse o autor sénior Spyridon Bakas, PhD, um instrutor de Radiologia e Patologia & Medicina Laboratorial na Escola de Medicina Perelman da Universidade da Pensilvânia.
“Tradicionalmente, a aprendizagem de máquinas tem usado dados de uma única instituição, e depois tornou-se evidente que esses modelos não funcionam bem ou generalizam bem os dados de outras instituições”
Confiança dos fornecedores e ferramentas analíticas de apoio
P>Just uma vez que é essencial que os pacientes confiem que os algoritmos analíticos podem manter os seus dados seguros, é crucial que os fornecedores confiem que essas ferramentas podem fornecer informações de uma forma útil e digna de confiança.
Num relatório recente da Associação Hospitalar Americana (AHA), a organização observou que uma forma de as organizações poderem assegurar a confiança dos fornecedores nestas ferramentas é usar a IA para gerir cargas de trabalho insustentáveis.
Adicionalmente, os líderes poderiam aproveitar as ferramentas de IA para aumentar a tomada de decisões clínicas no ponto de tratamento, declarou a AHA. Permitir que os fornecedores revejam e aperfeiçoem as ferramentas de IA também poderia ajudar a assegurar que os clínicos estão a bordo com a tecnologia.
Os investigadores da CSAIL do MIT também trabalharam para aumentar a confiança dos fornecedores nas ferramentas analíticas. Uma equipa desenvolveu recentemente uma ferramenta de aprendizagem de máquinas que se pode adaptar quando e com que frequência se diferencia dos peritos humanos com base em factores como a disponibilidade e o nível de experiência do perito.
“Há muitos obstáculos que, compreensivelmente, proíbem a automação total em ambientes clínicos, incluindo questões de confiança e responsabilidade”, disse David Sontag, o Professor Associado Von Helmholtz de Engenharia Médica no Departamento de Engenharia Electrotécnica e Informática.
“Esperamos que o nosso método inspire os profissionais da aprendizagem de máquinas a serem mais criativos na integração de conhecimentos humanos em tempo real nos seus algoritmos.”
Com as organizações de cuidados de saúde a aproveitarem cada vez mais as grandes ferramentas de análise de dados para uma melhor compreensão e processos de cuidados simplificados, a superação de questões de parcialidade, privacidade e segurança, e a confiança dos utilizadores serão fundamentais para o uso bem sucedido destes modelos nos cuidados clínicos.
Como a investigação continua a evoluir em torno da IA, aprendizagem de máquinas, e outros algoritmos analíticos, a indústria continuará a aperfeiçoar estas ferramentas para melhorar os cuidados ao paciente.