Por Cintia Baulé, médica de família.
A inteligência artificial (IA) está sendo cada vez mais utilizada no setor de saúde com a promessa de transformar o atendimento médico em algo mais ágil, preciso e acessível. No Brasil, os números mostram um crescimento ainda tímido, mas significativo: apenas 4% dos estabelecimentos de saúde utilizam IA institucionalmente, enquanto 17% dos médicos e 16% dos enfermeiros já incorporam ferramentas de IA generativa, como ChatGPT e Gemini, às suas práticas clínicas, segundo a pesquisa TIC Saúde 2024. A automatização de processos burocráticos, o suporte no diagnóstico e o monitoramento remoto são frequentemente exaltados como soluções para os gargalos do sistema. Mas, por trás dessa revolução, há um problema pouco discutido: até que ponto essa tecnologia é realmente confiável e capaz de substituir a complexidade da relação médico-paciente?
A defesa irrestrita da IA na medicina ignora questões fundamentais, como a confiabilidade dos diagnósticos gerados por algoritmos, a falta de regulamentação adequada e a desigualdade no acesso às novas tecnologias. Apesar dos avanços, a IA ainda não é infalível. Modelos preditivos podem reforçar vieses, levando a diagnósticos errôneos ou tratamentos inadequados, especialmente em sistemas que carecem de dados abrangentes e diversificados. Além disso, a automação excessiva pode desumanizar o atendimento, reduzindo a interação médico-paciente a uma relação mediada por máquinas. Em um país onde milhões dependem do Sistema Único de Saúde (SUS), o investimento em IA sem a devida infraestrutura pode aprofundar as desigualdades, beneficiando apenas uma parcela da população com acesso a serviços privados mais sofisticados.
Outro ponto crítico é a fragilidade da privacidade dos dados dos pacientes. Sistemas de IA dependem de vastos bancos de dados para aprender e tomar decisões, o que os torna alvos valiosos para vazamentos e usos indevidos. A ausência de regulamentação robusta no Brasil permite que informações sensíveis circulem sem transparência, gerando um risco ético grave. Quem controla esses dados? Como garantir que a IA não seja usada para discriminar pacientes com base em padrões invisíveis nos algoritmos? A falta de clareza sobre a segurança da informação e a proteção dos pacientes coloca em xeque a confiança na tecnologia.
Além disso, há uma questão fundamental: a IA realmente alivia a carga dos profissionais de saúde ou apenas redistribui o problema? Automatizar tarefas administrativas pode ser benéfico, mas não resolve a falta de médicos e enfermeiros nos hospitais públicos, tampouco melhora a remuneração desses profissionais. Em muitos casos, a implementação da IA serve mais aos interesses econômicos de grandes empresas de tecnologia do que às reais necessidades da população. O foco na inovação não pode desviar a atenção do que realmente impacta a qualidade do atendimento: mais investimentos em infraestrutura, melhores condições de trabalho e capacitação contínua para os profissionais da saúde.
O uso da IA na saúde deve ser visto com cautela e responsabilidade. Em vez de apostar cegamente na automação, é necessário equilibrar inovação com ética e segurança. A regulação precisa acompanhar o ritmo da tecnologia para garantir que os benefícios da IA sejam amplamente distribuídos, sem comprometer a qualidade do atendimento ou substituir o julgamento clínico humano. A inteligência artificial pode ser uma aliada poderosa, mas não deve ser tratada como uma solução mágica para problemas estruturais. O futuro da saúde depende não apenas de tecnologia avançada, mas de um compromisso real com a equidade, a proteção dos dados e o cuidado centrado no paciente.