
O Conselho Federal de Medicina (CFM) publicou, em 27 de fevereiro, uma resolução que regulamenta o uso da inteligência artificial na prática médica no Brasil. A norma estabelece que decisões diagnósticas, terapêuticas e prognósticas devem permanecer sob responsabilidade do médico, que também deve informar o paciente quando ferramentas de IA forem utilizadas como apoio relevante.
IA já está em todo o ciclo do cuidado
A tecnologia permeia desde a prevenção até o acompanhamento de doenças crônicas. Segundo o médico Edson Amaro, superintendente de Dados Globais e Tecnologias Avançadas do Einstein Hospital Israelita, a IA já é utilizada para predição de risco, otimização de exames, redução de desperdício e gestão de recursos hospitalares.
“O mundo contemporâneo é fortemente alavancado por soluções de inteligência artificial. Na saúde não é diferente”, observa Amaro.
As especialidades que mais se beneficiaram até agora são radiologia, patologia, dermatologia e oftalmologia — áreas que lidam com dados não estruturados como imagem, áudio e vídeo, nas quais a IA contribui para detectar padrões, priorizar exames e reduzir variabilidade, sem substituir a decisão final do médico.
Ferramentas para o público: avanços e limitações
Em janeiro, o ChatGPT lançou o GPT Health, ferramenta voltada à compreensão de exames, preparo para consultas e acompanhamento de cuidados. A OpenAI afirma que o recurso é exclusivamente informacional, com salvaguardas de privacidade. Semanalmente, mais de 230 milhões de pessoas fazem perguntas sobre saúde no ChatGPT.
No Brasil, um estudo da Fiocruz (2025) com 200 pacientes e 92 médicos identificou que 85,6% das pessoas pesquisaram informações de saúde na internet.
Porém, os limites dessas ferramentas são significativos. Um estudo publicado na Nature Medicine testou 10 cenários médicos com 1.298 participantes e revelou que:
- Avaliados isoladamente, os modelos identificaram corretamente as condições clínicas em 94,9% dos casos
- Na interação com usuários, o desempenho caiu drasticamente — as IAs reconheceram menos de 34,5% das condições relevantes
O principal problema identificado foi a troca incompleta de informações e a dificuldade dos modelos em comunicar respostas corretas de forma compreensível.
Novos riscos específicos das IAs
Diferentemente da simples busca no Google, as IAs generativas introduzem mecanismos de risco próprios:
- Sycophancy (bajulação): os modelos tendem a validar premissas equivocadas apresentadas pelo usuário, em vez de corrigi-las. Um estudo de 2025 mostrou que afirmações clinicamente falsas inseridas nas perguntas frequentemente eram aceitas e incorporadas nas respostas
- Desinformação com aparência técnica: artigo publicado na Lancet Digital Health concluiu que modelos de linguagem têm maior probabilidade de reproduzir informações falsas quando apresentadas com tom médico, como prontuários ou laudos
- Vieses estruturais: análise publicada na Mayo Clinic Proceedings: Digital Health (2024) identificou que LLMs favorecem determinados perfis de pacientes com base em raça, gênero e idade, podendo amplificar desigualdades existentes
- Riscos em saúde mental: análise de prontuários na Dinamarca (2025) associou o uso de chatbots ao agravamento de delírios e ideação suicida. Um estudo da UCLA descreveu episódios de psicose em usuários sem histórico prévio após interação prolongada com IAs
No Brasil, 13% dos brasileiros já utilizam essas ferramentas como “amigo ou conselheiro” para questões pessoais e emocionais, segundo relatório da consultoria Talk Inc. (2025)
Com informações de Metrópoles







