Foto: Izhar Ahamed/Pixabay

A digitalização da saúde e o avanço de sistemas baseados em dados vêm redesenhando a prática clínica no Brasil, gerando uma necessidade de marcos regulatórios mais claros. A Associação Médica Brasileira (AMB), por meio da Comissão de Saúde Digital (CSD), lançou uma cartilha para orientar o uso da inteligência artificial na Medicina, alinhada à Resolução nº 2.454/2026 do Conselho Federal de Medicina (CFM). A norma estabelece diretrizes inéditas para o uso da tecnologia e prevê um prazo de 180 dias para adequação, com vigência a partir de agosto.

O material consolida os principais pontos da regulamentação e reforça que a inteligência artificial deve atuar como suporte à decisão clínica, sem substituir a atuação médica. A responsabilidade final pelo diagnóstico e conduta permanece com o profissional, preservando sua autonomia técnica e ética. A abordagem busca equilibrar o potencial da tecnologia com a centralidade do julgamento humano no cuidado ao paciente.

Para o Dr. Antonio Carlos Endrigo, coordenador da CSD, a IA representa um avanço importante para a medicina, mas é fundamental reforçar que ela não substitui o médico. Em nota ele destacou que o papel do médico “continua sendo central na tomada de decisão, com responsabilidade, senso crítico e compromisso com o paciente. A cartilha foi desenvolvida para traduzir a resolução em orientações práticas, ajudando médicos e instituições a adotarem a inteligência artificial com segurança, ética e responsabilidade”.

Diretrizes definem responsabilidades médicas e níveis de risco da IA

A cartilha também organiza direitos e deveres dos médicos no uso dessas ferramentas. Entre as garantias, está a possibilidade de adotar sistemas de IA como apoio, além da recusa de soluções sem validação científica ou que apresentem riscos éticos. Por outro lado, estabelece obrigações como capacitação contínua, uso crítico das ferramentas e registro obrigatório em prontuário sempre que a tecnologia for aplicada. A norma ainda veda práticas como a delegação de diagnósticos à IA, o uso de sistemas sem segurança de dados e a falta de transparência com o paciente.

Outro eixo é a classificação dos sistemas de IA por níveis de risco, de baixo a inaceitável, com exigências proporcionais de governança. Aplicações com maior impacto clínico exigem controles mais rigorosos, incluindo monitoramento contínuo, validação e auditoria. Nesse processo, instituições de saúde e diretores técnicos assumem um papel relevante na definição de protocolos e na supervisão do uso dessas tecnologias.

Guia prático que orienta a adoção segura

A segurança jurídica e a proteção de dados aparecem como pontos centrais. O documento orienta que o registro do uso da IA no prontuário é fundamental para resguardar o profissional, além de recomendar a adoção de Termo de Consentimento Livre e Esclarecido específico. A conformidade com a Lei Geral de Proteção de Dados (LGPD) é tratada como obrigatória, considerando a sensibilidade das informações de saúde.

Com foco prático, a cartilha apresenta um roteiro para implementação, incluindo mapeamento de sistemas, classificação de risco, validação científica, criação de protocolos e capacitação das equipes. Também reúne um checklist institucional e um glossário com conceitos-chave, como IA generativa e vieses algorítmicos.

Sem comentários registrados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *