Apresentação

A Revista Domingueira da Saúde é uma publicação semanal do Instituto de Direito Sanitário - IDISA em homenagem ao Gilson Carvalho, o idealizador e editor durante mais de 15 anos da Domingueira da Saúde na qual encaminhava a mais de 10 mil pessoas informações e comentários a respeito do Sistema Único de Saúde e em especial de seu funcionamento e financiamento. Com a sua morte, o IDISA, do qual ele foi fundador e se manteve filiado durante toda a sua existência, com intensa participação, passou a cuidar da Domingueira hoje com mais de 15 mil leitores e agora passa a ter o formato de uma Revista virtual. A Revista Domingueira continuará o propósito inicial de Gilson Carvalho de manter todos informados a respeito do funcionamento e financiamento e outros temas da saúde pública brasileira.

Editores Chefes
Áquilas Mendes
Francisco Funcia
Lenir Santos

Conselho Editorial
Élida Graziane Pinto
Marcia Scatolin
Nelson Rodrigues dos Santos
Thiago Lopes Cardoso campos
Valéria Alpino Bigonha Salgado

ISSN 2525-8583



Domingueira nº 17 - Maio 2024

A necessidade de regulação da IA aplicada à saúde

Por Fernando Aith


Uso da inteligência artificial em saúde deve vir acompanhado de regulação eficaz para reduzir riscos e ampliar potenciais

A introdução do uso da inteligência artificial (IA) nos sistemas de saúde ao redor do mundo, incluindo no Brasil, é um fenômeno já cristalizado e em rápido crescimento. A literatura científica, o movimento regulatório europeu, norte-americano e canadense, e uma série cada vez mais robusta de casos específicos evidenciam cada vez mais os riscos à saúde individual e coletiva que as novas tecnologias digitais que utilizam IA no campo da saúde podem trazer – ou já trazem.

No campo da saúde pública, a gestão de riscos de doenças e outros agravos à saúde configura-se como um dever do Estado brasileiro, de acordo com o art. 196 da Constituição Federal. Pode-se afirmar, portanto, que o Estado brasileiro, União à frente, tem o dever de construir uma regulação setorial da IA em saúde no Brasil. Não se trata de uma simples questão de escolha discricionária dos políticos e gestores públicos de plantão, mas sim de um dever imperativo ditado pela Constituição Federal a fim de proteger os cidadãos dos potenciais riscos à saúde advindos destas novas tecnologias.

É preciso avançar com o debate sobre a regulação da IA em saúde antes que os danos comecem a se fazer vistos e vultosos. No texto de hoje serão apresentados alguns pontos estratégicos para que o Brasil avance rumo a uma regulação eficiente para a IA em saúde.

Conceitos estratégicos para pensar a IA em saúde

Importante apresentar introdutoriamente, ainda que de forma bastante sintética, alguns dos conceitos mais importantes que já vem sendo tratados em regulações internacionais e também nas incipientes regulações editadas no Brasil:

  • Inteligência artificial é o uso de sistemas de computador para executar tarefas que tradicionalmente requerem cognição humana. Após a programação inicial, as tarefas são executadas sem intervenção humana direta. Os humanos fornecem entradas em um sistema de computador que permite que a máquina execute as tarefas programadas sem ajuda humana posterior. IA de aprendizado de máquina é uma IA que coleta novas informações por meio de sua própria operação e se adapta para produzir resultados novos, esperançosamente melhorados (previsões, análises etc.).

  • Redes neurais conectam muitos nós de processamento simples em processos algorítmicos que podem ser treinados para oferecer respostas por meio da imitação da cognição humana. As redes neurais são uma forma de aprendizado de máquina. O aprendizado de máquina profundo é uma espécie de rede neural de alta potência, com numerosas “camadas” de nós de processamento, muitos dos quais podem estar ocultos (ou seja, não são, estritamente falando, camadas de entrada ou saída).

  • IA relacionada à saúde é um conceito heterogêneo. Abrange computadores que leem e interpretam exames médicos; monitores cardíacos baseados em smartwatches; algoritmos que fazem recomendações de condutas às pessoas ou aos profissionais de saúde; algoritmos que fazem avaliações iniciais de triagem sobre se um paciente precisa consultar um médico (e de qual especialidade); algoritmos que fornecem resultados diagnósticos ou terapêuticos reais; algoritmos que fazem recomendações de tempo sobre como melhorar a cirurgia; dentre outros.

A IA relacionada à saúde pode ser usada sob a supervisão de humanos (IA supervisionada) ou de forma autônoma (IA autônoma). Neste tipo de IA, os robôs poderão eventualmente até realizar cirurgias sem supervisão humana. A enorme heterogeneidade da IA reflete a heterogeneidade de necessidades e respostas em matéria de cuidados de saúde e torna mais complexa a concepção de uma governança e regulação adequadas.

Riscos já identificados

A utilização da IA nos cuidados de saúde levanta preocupações de segurança.

Uma questão é como garantir que apenas ferramentas seguras de IA estejam no mercado, sejam elas adotadas pelo Sistema Único de Saúde (SUS), sejam elas adotadas pelo sistema privado. Algumas características da IA tornam especialmente difícil prever riscos ou identificar eventos adversos.

Por exemplo, o aprendizado de máquina profundo “adaptativo” muda suas características ao longo do tempo, por definição, à medida que aprende. Consequentemente, nem todos os riscos decorrentes do uso deste tipo de tecnologia são identificáveis antes da tecnologia ser adotada nos cuidados de saúde. Uma licença ex ante que demonstre a segurança da IA em saúde no momento em que um pedido é feito ao regulador pode ter valor limitado.

O desafio para regular esse tipo de tecnologia é significativo. A natureza de alguns “tomadores de decisão” da IA, como as redes neurais de aprendizagem profunda, significa que nem os reguladores nem os profissionais de saúde conseguem compreender como é que uma decisão é tomada. Esse “raciocínio” da IA pode até permanecer opaco para os criadores da IA, transformando a IA numa “caixa preta”.

A opacidade de certas IAs pode dificultar a identificação prévia de problemas (eventos adversos, preconceitos etc.), assim como durante o uso na prática. Exigir IA explicável pode não resolver todos esses problemas: explicações geralmente fornecem uma aproximação de como a IA funciona, não a compreensão direta; ainda, algumas ferramentas de IA podem ser seguras e eficazes sem serem explicáveis.

Outra preocupação relacionada à segurança é a do viés algorítmico. A IA depende dos dados que alimentam seu aprendizado. Se os conjuntos de dados de treinamento usados por programadores de IA sistematicamente sub-representam grupos (por exemplo, mulheres, povos indígenas, povos negros e povos de cor, ou outros grupos que foram marginalizados), a ferramenta pode resultar em preconceitos e/ou erros crassos. O preconceito está intimamente ligado a preocupações de segurança, pois o preconceito pode minar a precisão do diagnóstico ou das recomendações de tratamento, como, por exemplo, quando o diagnóstico do cancro da pele é preciso para pessoas brancas, mas não para pessoas de cor.

Outro problema que se mostra no horizonte refere-se à tendência dos seres humanos de serem excessivamente confiantes e indevidamente respeitosos com as recomendações baseadas em máquinas. Em que medida IAs aplicadas à saúde não irão substituir o ser humano no processo de cuidado ainda é uma incógnita. Certo é que, sem uma regulação adequada que induza a formação e o letramento de pacientes e profissionais para o uso crítico destas ferramentas, os riscos de discriminação e erros serão enormes.

Não se pode presumir que estes problemas possam ser resolvidos através da vigilância pós-comercialização ou por meio de IAs que evoluam para as necessidades do mundo real. No mundo real, aqueles que foram marginalizados podem não ter acesso às tecnologias de IA porque não fazem parte de planos públicos ou não são cobertos por seguros de saúde privados. Portanto, não se pode presumir que os problemas de preconceito algorítmico ou de erros de programação inicial irão desaparecer com o tempo, à medida que as ferramentas de IA evoluem e aprendem com dados do mundo real.

As preocupações com a privacidade também estão relacionadas às questões de segurança e preconceito algorítmico. A IA precisa agregar e coletar grandes quantidades de informações de saúde para ser precisa. Além disso, esses dados podem ser potencialmente reaproveitados e compartilhados com terceiros.

Muitas proteções de privacidade devem ser aplicadas no contexto de dispositivos médicos, mas até o momento a legislação sobre informações de saúde pessoais ao redor do mundo, Brasil incluso, normalmente isenta dados “desidentificados” de suas proteções. A questão é que, atualmente, ferramentas poderosas de IA aumentam os riscos de reidentificação de indivíduos.

A construção de uma regulação para a IA em saúde deve buscar o equilíbrio necessário entre o incentivo ao desenvolvimento e incorporação destas novas tecnologias e a proteção aos direitos fundamentais do homem, notadamente os direitos de privacidade, intimidade, não discriminação e da saúde.

Se quadros jurídicos coerentes não abordarem as preocupações aqui levantadas sobre preconceitos algorítmicos e privacidade, isso poderá minar a confiança do público na utilização da IA nos cuidados de saúde e criar um abismo significativo entre o desenvolvimento e a implementação de uma inovação. Alguns autores chamam esta divergência de a “verdade mais inconveniente” sobre a IA (Da Silva et al, 2022). Poderia resultar na perda de muitas oportunidades para desenvolvimentos valiosos de IA, susceptíveis de melhorar o sistema de saúde brasileiro.

O desafio

A abordagem destas questões é complexa no Brasil devido à divisão constitucional de poderes regulatórios e à sobreposição de leis/regulamentos. Tal complexidade não pode nos levar à inação.

Já há elementos suficientes para que o Brasil desenvolva o seu ecossistema de governança aplicado à IA nos cuidados de saúde, notadamente por meio da: edição de normas gerais pela União; edição de normas complementares pelos níveis estadual e municipal; de normas editadas pelos conselhos profissionais e; desenvolvimento do sistema de autorregulação privada na área.


Publicado em Jota


Fernando Aith – Professor titular da Faculdade de Saúde Pública da Universidade de São Paulo (USP). Professor visitante da Faculdade de Direito da Universidade de Paris. Diretor do Centro de Pesquisas em Direito Sanitário da USP


Inscrições




OUTRAS DOMINGUEIRAS