Connect with us

Tecnologia

Regulamentar a IA na saúde é urgente e o Brasil já começou escrever esse capítulo

Publicado

on


Por Michel Goya, diretor da ABSS e CEO da OPME Log

Nos últimos anos, testemunhamos o surgimento de soluções de inteligência artificial (IA)
que revolucionam a forma como vivemos, trabalhamos e cuidamos da saúde.

No entanto, o avanço acelerado dessa tecnologia também traz a necessidade de criar salvaguardas,
marcos regulatórios e diretrizes éticas que garantam o uso responsável — especialmente em áreas sensíveis como a saúde. É nesse cenário que o recém-lançado Plano Brasileiro de
Inteligência Artificial (PBIA) representa um divisor de águas.

Aprovado em março de 2024 e com implementação projetada até 2028, o PBIA propõe um
investimento de R$ 23 bilhões para estruturar uma IA centrada no ser humano, com foco
na inclusão, soberania tecnológica e bem-estar social. É uma iniciativa ambiciosa que
coloca o Brasil na rota de países que reconhecem a urgência de um uso regulado e ético da
IA. Mas será que ela conseguirá, de fato, atender aos gargalos do Sistema Único de Saúde
(SUS) e da saúde suplementar?

A saúde é um dos eixos prioritários do plano. Com base na capilaridade do SUS e na
enorme quantidade de dados que ele gera, o PBIA prevê o uso da IA para diagnosticar
doenças com mais agilidade, interpretar exames de imagem, prever surtos
epidemiológicos e até personalizar tratamentos com base no perfil genético da população
brasileira.

Plano nacional de IA prevê investimentos na saúde para diagnósticos rápidos e tratamentos personalizados com base em dados do SUS (Imagem: khunkornStudio/Shutterstock)

Mas para que esse potencial se torne realidade, é preciso enfrentar desafios complexos:
interoperabilidade entre sistemas, fragmentação de dados, formação de profissionais
capacitados e um histórico de subfinanciamento crônico no setor público. Além disso, o
uso de IA no diagnóstico e no atendimento remoto esbarra em dilemas éticos: quem
responde por um erro cometido por uma IA? Até onde vai a autonomia do algoritmo
diante de uma decisão médica?

Marco ético e soberania digital

A ausência de regulamentação específica para IA em saúde sempre foi uma lacuna
preocupante. O PBIA propõe agora o desenvolvimento de marcos éticos e regulatórios que
garantam segurança aos usuários e transparência aos sistemas — aspectos cruciais para
preservar direitos fundamentais como a privacidade de dados sensíveis e a equidade no
acesso a tecnologias emergentes.

O plano nacional propõe regras éticas e uma “nuvem soberana” para garantir segurança, transparência e autonomia no uso da inteligência artificial na saúde. (Imagem: bixstock/Shutterstock)

Um dos pontos mais promissores é a criação de uma “nuvem soberana”, ou seja, uma
infraestrutura nacional de dados, protegida por padrões brasileiros de governança. Em um
mundo em que a maior parte das ferramentas de IA vem de empresas estrangeiras,
garantir soberania digital é também garantir autonomia clínica, científica e econômica.

Ainda que o plano proponha uma abordagem ética e inclusiva, é necessário reconhecer os
riscos. Países com grandes desigualdades educacionais e territoriais, como o Brasil,
correm o risco de ver a IA aprofundar desigualdades em vez de reduzi-las. Em regiões
remotas onde faltam até conexões estáveis à internet, como garantir acesso à
telemedicina com suporte de IA?

Novo plano brasileiro de IA prevê diretrizes para uso seguro da tecnologia na saúde (Imagem: raker/Shutterstock)

Por isso, o plano também inclui metas para a formação de profissionais — não apenas
desenvolvedores, mas também profissionais da saúde com competências digitais. Sem
esse preparo, algoritmos bem treinados continuarão subutilizados em um sistema ainda
analógico.

Um plano ambicioso, mas ainda um começo

O PBIA acerta ao propor diretrizes de longo prazo, investimento robusto e coordenação
multissetorial. Mas, para que a inteligência artificial seja, de fato, uma aliada da saúde
pública e do cidadão brasileiro, será preciso mais do que boas intenções. Será preciso
vigilância constante, participação ativa da sociedade civil e coragem regulatória. Afinal, a
inteligência artificial não é neutra. O que ela aprende — e a quem ela atende — depende
diretamente das escolhas políticas que fizermos hoje.




OLHAR DIGITAL – Link original da matéria

Notícias do Brasil e do Mundo

Leave a Reply

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Exit mobile version