top of page

Compliance Ético-Digital: A Resolução CFM 2.454/2026 e a Miragem da Inteligência Algorítmica

  • Foto do escritor: Marcio Henrique Pierobon Martins
    Marcio Henrique Pierobon Martins
  • 18 de mar.
  • 2 min de leitura

A incorporação de sistemas de Inteligência Artificial e ferramentas de automação na prática médica não é mais uma projeção de ficção científica; é o tecido presente da assistência à saúde. Contudo, toda potência tecnológica sem baliza ética converte-se em risco jurídico. É nesse vácuo que surge a Resolução CFM 2.454/2026, o marco normativo essencial que disciplina o uso da IA na Medicina, preservando o núcleo irrenunciável da responsabilidade profissional: a consciência humana.


I. O Núcleo Normativo: A Inteligência como Instrumento, não como Agente


A Resolução CFM 2.454/2026 não é um manifesto tecnofóbico, mas uma delimitação de fronteiras. Ela estabelece diretrizes para a validação, implementação e supervisão de ferramentas automatizadas, reafirmando princípios que nenhum algoritmo pode simular:


  • O Ato Médico é Soberano: A decisão clínica final permanece sendo uma prerrogativa humana.

  • Auxílio, não Substituição: Sistemas de IA são instrumentos de suporte; eles ampliam a visão, mas não devem substituir o julgamento.

  • Auditabilidade e Rastreabilidade: A transparência algorítmica é um requisito ético. Não se admite a "caixa-preta" decisória.

  • Indivisibilidade da Responsabilidade: A responsabilidade civil e ética é intransferível. A máquina não senta no banco dos réus.


II. A Exegese Pericial: Investigando a Falha na Automação


No campo da prova técnica, a Resolução 2.454/2026 torna-se o parâmetro para avaliar o erro médico na era digital. O perito médico, ao analisar laudos ou condutas influenciadas por IA preditiva, deve abandonar a superfície e investigar a profundidade:

  • Houve validação científica? A ferramenta utilizada possuía evidências de eficácia e segurança para aquele cenário específico?

  • Supervisão Humana Efetiva: O médico assistente exerceu seu dever de crítica ou limitou-se à reprodução acrítica do resultado algorítmico?

  • Rastreabilidade do Erro: O dano decorreu de uma falha de validação do sistema ou de uma má aplicação clínica pelo profissional?

A simples alegação de que "o sistema indicou" é juridicamente irrelevante. O perito deve discernir se a tecnologia foi usada como escudo para a negligência ou se houve uma falha técnica sistêmica imprevisível.


III. Impacto na Sentença: A Responsabilidade na Zona Cinzenta


Para o magistrado, este marco regulatório encerra a discussão sobre a "culpa da máquina". A Resolução 2.454/2026 fornece a bússola para navegar entre o programador, a instituição e o médico assistente. No Direito, a adoção de tecnologia sem a devida validação adequada pode configurar, por si só, uma modalidade de imprudência. O juiz deve compreender que a Medicina continua sendo uma atividade de meio, tecnologicamente assistida, onde o dever de cuidado não se extingue com o clique de um botão.

No equilíbrio entre o progresso técnico e a ética profissional reside a maturidade institucional. A tecnologia evolui em ritmo exponencial; a responsabilidade, contudo, permanece humana e indivisível. Nenhuma inteligência artificial substitui o dever de responder pelo outro.


Relatório médico com lupa e estetoscópio em primeiro plano, simbolizando avaliação médica e exames de saúde.

Comentários


bottom of page