
A inteligência synthetic é promissora para ajudar os médicos a diagnosticar pacientes e personalizar as opções de tratamento. No entanto, um grupo internacional de cientistas liderado pelo MIT adverte que os sistemas de IA, tal como concebidos atualmente, correm o risco de orientar os médicos na direção errada, porque podem tomar decisões incorretas com excesso de confiança.
Uma forma de evitar esses erros é programar os sistemas de IA para serem mais “humildes”, segundo os pesquisadores. Tais sistemas revelariam quando não estão confiantes nos seus diagnósticos ou recomendações e encorajariam os utilizadores a recolher informações adicionais quando o diagnóstico fosse incerto.
“Agora estamos usando a IA como um oráculo, mas podemos usá-la como um treinador. Poderíamos usar a IA como um verdadeiro copiloto. Isso não apenas aumentaria nossa capacidade de recuperar informações, mas aumentaria nossa agência para poder conectar os pontos”, diz Leo Anthony Celi, pesquisador sênior do Instituto de Engenharia e Ciência Médica do MIT, médico do Beth Israel Deaconess Medical Middle e professor associado da Harvard Medical College.
Celi e seus colegas criaram uma estrutura que, segundo eles, pode orientar os desenvolvedores de IA no projeto de sistemas que demonstrem curiosidade e humildade. Esta nova abordagem poderá permitir que os médicos e os sistemas de IA trabalhem como parceiros, dizem os investigadores, e ajudar a evitar que a IA exerça demasiada influência nas decisões dos médicos.
Celi é a autora sênior do estudo, que aparece hoje em BMJ Saúde e Informática de Cuidados. O autor principal do artigo é Sebastián Andrés Cajas Ordoñez, pesquisador do MIT Important Information, um consórcio world liderado pelo Laboratório de Fisiologia Computacional do Instituto de Engenharia Médica e Ciência do MIT.
Incutir valores humanos
Sistemas de IA excessivamente confiantes podem levar a erros em ambientes médicos, de acordo com a equipe do MIT. Estudos anteriores descobriram que os médicos das UTIs recorrem a sistemas de IA que consideram confiáveis, mesmo quando a sua própria intuição vai contra a sugestão da IA. Médicos e pacientes são mais propensos a aceitar recomendações incorretas de IA quando são consideradas confiáveis.
Em vez de sistemas que oferecem conselhos excessivamente confiantes, mas potencialmente incorretos, as unidades de saúde deveriam ter acesso a sistemas de IA que trabalhem de forma mais colaborativa com os médicos, dizem os investigadores.
“Estamos a tentar incluir os humanos nestes sistemas de IA humana, para que possamos facilitar aos humanos a reflexão e a reimaginar colectivamente, em vez de terem agentes isolados de IA que fazem tudo. Queremos que os humanos se tornem mais criativos através da utilização da IA”, diz Cajas Ordoñez.
Para criar tal sistema, o consórcio projetou uma estrutura que inclui vários módulos computacionais que podem ser incorporados em sistemas de IA existentes. O primeiro desses módulos requer um modelo de IA para avaliar sua própria certeza ao fazer previsões diagnósticas. Desenvolvido pelos membros do consórcio Janan Arslan e Kurt Benke, da Universidade de Melbourne, o Epistemic Advantage Rating atua como uma verificação de autoconsciência, garantindo que a confiança do sistema seja adequadamente temperada pela incerteza e complexidade inerentes de cada cenário clínico.
Com essa autoconsciência implementada, o modelo pode adaptar sua resposta à situação. Se o sistema detectar que a sua confiança excede o que a evidência disponível suporta, pode fazer uma pausa e sinalizar a incompatibilidade, solicitando testes ou históricos específicos que resolveriam a incerteza, ou recomendando a consulta de um especialista. O objetivo é uma IA que não apenas forneça respostas, mas também sinalize quando essas respostas devem ser tratadas com cautela.
“É como ter um copiloto que lhe diria que você precisa buscar um novo par de olhos para poder compreender melhor esse paciente complexo”, diz Celi.
Celi e seus colegas desenvolveram anteriormente bancos de dados em grande escala que podem ser usados para treinar sistemas de IA, incluindo o banco de dados Medical Info Mart for Intensive Care (MIMIC) do Beth Israel Deaconess Medical Middle. Sua equipe está agora trabalhando na implementação da nova estrutura em sistemas de IA baseados em MIMIC e na apresentação aos médicos do sistema de saúde Beth Israel Lahey.
Esta abordagem também poderá ser implementada em sistemas de IA utilizados para analisar imagens de raios X ou para determinar as melhores opções de tratamento para pacientes no pronto-socorro, entre outros, afirmam os pesquisadores.
Rumo a uma IA mais inclusiva
Este estudo faz parte de um esforço maior de Celi e seus colegas para criar sistemas de IA projetados por e para as pessoas que serão mais impactadas por essas ferramentas. Muitos modelos de IA, como o MIMIC, são treinados com base em dados publicamente disponíveis dos Estados Unidos, o que pode levar à introdução de preconceitos em relação a uma determinada forma de pensar sobre questões médicas e à exclusão de outras.
Trazer mais pontos de vista é basic para superar estes potenciais preconceitos, diz Celi, enfatizando que cada membro do consórcio world traz uma perspectiva distinta para uma compreensão colectiva mais ampla.
Outro problema com os sistemas de IA existentes utilizados para diagnóstico é que normalmente são treinados em registos de saúde eletrónicos, que não foram originalmente concebidos para esse fim. Isto significa que os dados carecem de muito do contexto que seria útil para fazer diagnósticos e recomendações de tratamento. Além disso, muitos pacientes nunca são incluídos nesses conjuntos de dados devido à falta de acesso, como pessoas que vivem em áreas rurais.
Em workshops de dados organizados por Dados críticos do MITgrupos de cientistas de dados, profissionais de saúde, cientistas sociais, pacientes e outros trabalham juntos na concepção de novos sistemas de IA. Antes de começar, todos são levados a pensar se os dados que estão a utilizar captam todos os impulsionadores de tudo o que pretendem prever, garantindo que não codificam inadvertidamente as desigualdades estruturais existentes nos seus modelos.
“Nós os fazemos questionar o conjunto de dados. Eles estão confiantes sobre seus dados de treinamento e dados de validação? Eles acham que há pacientes que foram excluídos, involuntariamente ou intencionalmente, e como isso afetará o próprio modelo?” ele diz. “É claro que não podemos parar ou mesmo atrasar o desenvolvimento da IA, não apenas nos cuidados de saúde, mas em todos os sectores. Mas temos de ser mais deliberados e ponderados na forma como fazemos isto.”
A pesquisa foi financiada pelo Projeto de Pesquisa Inovadora Boston-Coréia, por meio do Instituto Coreano de Desenvolvimento da Indústria de Saúde.