A Inteligência Artificial (IA) deixou de ser uma tendência tecnológica para se tornar um componente integrante da assistência médica. Ela já está presente no suporte à decisão clínica, na análise de exames e na otimização da triagem. No entanto, até recentemente, o setor operava em uma zona cinzenta regulatória.

Com a publicação da Resolução CFM nº 2.376/2024, esse cenário mudou. O Conselho Federal de Medicina estabeleceu marcos que exigem uma revisão imediata da governança de qualquer instituição de saúde que utilize ou pretenda implementar soluções de IA.

Neste artigo, analisamos os pontos da norma que impactam diretamente o compliance regulatório e a gestão da responsabilidade civil das unidades de saúde.

A Soberania Médica e a Responsabilidade do Diretor Técnico

O ponto central da resolução é a reafirmação da autonomia e soberania do médico. Para as instituições, isso significa que a IA deve ser implementada estritamente como uma ferramenta de auxílio, nunca como um substituto do julgamento humano. Na prática da gestão:

  • Responsabilidade Indelegável: A instituição não pode utilizar o algoritmo como justificativa para isenção de responsabilidade. O médico assistente — e, por extensão, o Diretor Técnico da unidade — tem o dever de revisar e validar as sugestões da IA.

  • Vedação à “Caixa-Preta”: As instituições de saúde não devem adotar sistemas cujos critérios decisórios sejam opacos. A transparência do raciocínio clínico da ferramenta é um requisito ético e legal para a segurança da operação médica.

Due Diligence: O Novo Checklist de Conformidade

Para as unidades de prestação de serviços médicos, a contratação de tecnologias de IA agora exige um processo de auditoria rigoroso. Não se trata apenas de eficiência técnica, mas de conformidade normativa:

  1. Validação Sanitária (ANVISA): É obrigatório verificar se a ferramenta possui registro como dispositivo médico, especialmente se atuar em diagnóstico ou tratamento.

  2. Transparência e Vieses: A resolução exige que a instituição conheça as limitações da ferramenta e como os algoritmos foram treinados, garantindo que o médico saiba os potenciais vieses do sistema.

  3. Segurança de Dados e LGPD: As instituições de saúde lidam com dados sensíveis. Garantir que a IA opere sob protocolos de criptografia e respeito à Lei Geral de Proteção de Dados (LGPD) é a principal linha de defesa contra incidentes e sanções administrativas.

Impacto na Governança e no Seguro de Responsabilidade

A chegada da resolução exige que as instituições atualizem seus Regimentos Internos e protocolos de atendimento. Um ponto de atenção crítica é a atualização dos Termos de Consentimento Livre e Esclarecido (TCLE): o paciente possui o direito de ser informado quando uma ferramenta de IA desempenha papel relevante em seu diagnóstico ou plano terapêutico.

Além disso, é urgente a revisão das apólices de seguro de responsabilidade civil profissional. Muitos contratos atuais não preveem incidentes envolvendo decisões assistidas por tecnologia. Sem essa adequação, a instituição de saúde pode enfrentar um vácuo de cobertura em casos de litígio judicial ou ético.

O que fazer agora?

O CFM não impôs barreiras à inovação, mas estabeleceu garantias éticas que transformam a IA em um tema de Direito Médico Estratégico. O caminho para gestores e diretores técnicos envolve três pilares:

  • Educação Continuada: Treinar o corpo clínico sobre as prerrogativas e limites no uso da IA.

  • Segurança Contratual: Blindar a instituição em contratos com fornecedores de tecnologia e sistemas de suporte à decisão.

  • Adequação Normativa: Alinhar os protocolos da unidade de saúde às novas exigências do Conselho Federal de Medicina.

A IA pode otimizar processos e salvar vidas, mas, sem o respaldo jurídico adequado, ela deixa de ser uma aliada para se tornar um passivo silencioso na estrutura da instituição.

Advogado

E-mail: n.marques@alvesoliveira.adv.br