O que muda com a nova resolução
Médicos e hospitais brasileiros precisam ajustar seus processos até o dia 26 de agosto para cumprir as novas regras sobre o uso de inteligência artificial na saúde. A norma do Conselho Federal de Medicina regulamenta ferramentas que vão desde a organização de prontuários até os sistemas que ajudam no diagnóstico de doenças.
O texto oficial tenta resolver a falta de regras claras e cria um padrão mínimo de segurança para a adoção da tecnologia. O conselheiro federal Jeancarlo Cavalcante explica o foco principal do documento.
“A resolução estabelece princípios fundamentais, como transparência no uso da IA e a responsabilidade do médico pelas decisões tomadas com apoio dessas ferramentas.”
A decisão final continua sendo do médico
A inteligência artificial deve atuar apenas como um apoio durante o atendimento e não substitui a avaliação humana. O profissional de saúde é o responsável final pela conduta médica, mesmo quando o algoritmo analisa exames ou sugere tratamentos.
A regra deixa claro que o uso da ferramenta exige atenção constante do profissional. Jeancarlo reforça quem assume as consequências de eventuais falhas.
“Se ocorrer algum erro ou dano, o médico não poderá atribuir isso à tecnologia, porque ele é responsável pela utilização da ferramenta.”
Por outro lado, o médico ganha proteção jurídica caso o erro seja exclusivamente do sistema tecnológico. Isso vale desde que o profissional consiga provar que usou a ferramenta de forma correta e dentro da ética médica.
Direitos dos pacientes e deveres dos hospitais
Quem busca atendimento tem o direito de saber se a inteligência artificial faz parte do seu cuidado. O médico precisa avisar o paciente sobre o uso da tecnologia e respeitar caso ele recuse esse tipo de abordagem no tratamento.
As clínicas e hospitais que usam ou criam sistemas próprios ganham uma nova obrigação estrutural. Esses locais precisam montar uma comissão específica para avaliar a tecnologia, sempre com um médico na coordenação do grupo.
O gerente médico de informática clínica do Hospital Sírio-Libanês, Fábio de Cerqueira Lario, aponta que a segurança depende de acompanhamento diário.
“Sobretudo para sistemas que impactam decisões clínicas, é essencial garantir a participação do médico na tomada de decisão e monitorar os desfechos da utilização dessas ferramentas.”
Níveis de risco dos sistemas
O conselho dividiu as ferramentas de acordo com o impacto que elas podem causar na saúde do paciente. Essa divisão define o nível de controle e supervisão que cada software exige no dia a dia.
- Baixo risco: Sistemas de rotina administrativa, como agendamento de consultas.
- Médio risco: Programas que analisam exames e dão sugestões de diagnóstico, mas exigem validação humana.
- Alto risco: Equipamentos que tomam decisões de tratamento, como bombas de infusão de remédios.
As aplicações classificadas como de alto risco são proibidas de funcionar sem o acompanhamento humano constante. Isso evita que máquinas administrem medicamentos perigosos sem a supervisão de um especialista.
O que fazer antes do prazo final
Os profissionais e as instituições de saúde precisam organizar uma série de processos até o fim de agosto. O objetivo é garantir que toda a operação tecnológica aconteça dentro da lei e das regras de proteção de dados.
- Identificar todos os sistemas de inteligência artificial usados na rotina médica.
- Verificar se as ferramentas possuem validação científica e certificação.
- Registrar sempre no prontuário do paciente quando usar o apoio da tecnologia.
- Criar a comissão obrigatória dentro dos hospitais para monitorar o uso dos algoritmos.

