IA na medicina: o que muda para médicos e pacientes?

Médico analisando informações clínicas com apoio de inteligência artificial, representada por interface digital de dados, simbolizando uso ético e supervisionado da IA na medicina.

Índice

Imagine a seguinte situação: uma pessoa vai ao hospital, faz exames e descobre que parte da análise foi apoiada por um sistema de inteligência artificial. Isso pode acelerar processos, ajudar na organização de dados e até apoiar decisões clínicas. Ao mesmo tempo, surge uma dúvida natural: quem está realmente decidindo, a máquina ou o médico?

Essa é uma preocupação legítima, porque saúde envolve confiança, segurança, privacidade e responsabilidade. Quando o assunto é IA na medicina, o interesse não está só na inovação. O que as pessoas querem saber, de forma prática, é se essa tecnologia é segura, se seus dados ficam protegidos e se ainda haverá um profissional humano olhando o caso com atenção.

Do ponto de vista jurídico e ético, essa situação ocorre quando sistemas de inteligência artificial passam a ser usados como apoio em diagnósticos, tratamentos, monitoramento, gestão em saúde ou comunicação clínica, mas sem poder substituir a autoridade final do médico nem afastar os direitos do paciente. O material anexado mostra que a regulamentação recente do Conselho Federal de Medicina parte justamente dessa lógica: a IA pode apoiar, mas o cuidado continua centrado na pessoa humana e sob supervisão humana obrigatória.

O que é IA na medicina?

IA na medicina é o uso de sistemas computacionais capazes de processar dados e gerar classificações, previsões, recomendações ou conteúdos que influenciem atividades ligadas à saúde. Isso pode ocorrer em contexto assistencial, diagnóstico, terapêutico, prognóstico, triagem, monitoramento, reabilitação, pesquisa, ensino médico ou gestão em saúde.

Na prática, isso inclui ferramentas muito diferentes entre si. Algumas ajudam a organizar prontuários. Outras apoiam a leitura de exames. Há também modelos capazes de gerar texto, resumir literatura científica, auxiliar na redação de documentos clínicos ou responder perguntas em linguagem natural.

Em linguagem simples, a IA na medicina funciona como uma ferramenta de apoio. Ela pode encontrar padrões em grande volume de dados, mas isso não significa que ela “assume” o atendimento.

A IA pode substituir o médico?

Não. Esse é um dos pontos mais importantes envolvendo a IA na medicina.

A norma deixa claro que a IA deve ser usada exclusivamente como ferramenta de apoio, e que o médico permanece como responsável final pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas. Além disso, o texto afirma que os sistemas de IA não podem restringir nem substituir a autoridade final do médico, e que a decisão sobre diagnóstico, prognóstico, prescrição ou qualquer ato médico caberá sempre ao profissional, que pode aceitar ou rejeitar a sugestão da IA conforme seu julgamento.

Isso importa muito para o paciente. Em termos práticos, significa que a consulta não deve virar uma simples “leitura de tela”. O médico continua tendo o dever de analisar o quadro real da pessoa, ouvir, contextualizar e decidir.

O paciente tem direito de saber quando a IA está sendo usada?

Sim.

O material determina que o paciente tem o direito de ser informado, de forma clara e acessível, quando modelos ou sistemas de IA forem usados como apoio relevante em seu cuidado, diagnóstico ou tratamento. Também diz que qualquer utilização de IA deve ser comunicada e explicada aos pacientes, deixando claro que esses sistemas servem de apoio ao médico, e não de substituição da decisão final humana.

Esse ponto é essencial porque informação clara faz parte do respeito à autonomia do paciente. A pessoa precisa compreender como a tecnologia influenciou a conduta médica para poder participar das decisões de maneira consciente.

A IA pode dar diagnósticos ou comunicar decisões sozinha?

Não deveria.

A resolução veda ao médico delegar à IA a comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem a devida mediação humana. Isso significa que a tecnologia pode ajudar no processo, mas não deve substituir a conversa humana em momentos delicados ou decisivos.

Pense em um exemplo cotidiano: receber um diagnóstico importante já é algo emocionalmente difícil. Se isso fosse entregue apenas por uma ferramenta automatizada, sem contexto, sem escuta e sem possibilidade imediata de esclarecimento, haveria grave prejuízo à relação médico-paciente. A norma busca evitar exatamente esse esvaziamento do cuidado.

Quais direitos do paciente continuam valendo?

A introdução da IA na medicina não elimina direitos já existentes. O documento destaca, entre outros:

  • direito à informação clara sobre o estado de saúde e as opções de tratamento;
  • direito à obtenção de segunda opinião;
  • direito de não ser submetido a intervenções experimentais sem consentimento específico;
  • direito à privacidade e à confidencialidade dos dados pessoais.

Além disso, o texto reforça que decisões clínicas apoiadas por IA devem ser contestáveis, revisáveis e compatíveis com segunda opinião. Em hipótese alguma uma decisão automatizada em saúde pode ser irreversível sem supervisão humana ou sem possibilidade de recurso.

Em outras palavras, se uma tecnologia influenciar uma conduta médica, isso não transforma a recomendação em verdade absoluta.

E os dados de saúde, ficam protegidos?

Devem ficar.

O conteúdo anexado trata os dados médicos como informações sensíveis e exige proteção rigorosa. Os dados usados no desenvolvimento, treinamento, validação e implementação de sistemas de IA devem observar as regras de proteção de dados pessoais e as normas específicas de segurança da informação em saúde. Também há exigência de proteção contra destruição, perda, alteração, acessos não autorizados e vazamentos.

Além disso, o médico deve zelar pela confidencialidade, integridade e segurança dos dados de saúde usados por sistemas de IA, e o compartilhamento deve ocorrer apenas de forma adequada às finalidades informadas e quando estritamente necessário.

Para o leigo, isso significa o seguinte: usar tecnologia não autoriza uso indiscriminado de informações pessoais. A proteção dos dados continua sendo uma obrigação central.

Quais são os principais benefícios da IA na medicina?

O próprio material aponta que a IA pode melhorar a eficiência e a qualidade dos serviços de saúde, reduzir burocracias desnecessárias, agilizar diagnósticos e tratamentos e elevar a qualidade do atendimento, desde que sem violar direitos dos pacientes ou deveres dos profissionais.

Na prática, os benefícios mais esperados costumam ser:

  • apoio à análise de grande volume de informações;
  • ganho de tempo em tarefas repetitivas;
  • auxílio à gestão de prontuários e fluxos;
  • apoio à síntese de literatura científica;
  • suporte à tomada de decisão clínica, quando houver validação adequada.

A analogia mais simples é esta: a IA pode funcionar como um “amplificador” da capacidade técnica do sistema de saúde, mas não como substituta do discernimento humano.

Quais são os riscos da IA na medicina?

Os riscos também aparecem com força no texto.

A regulamentação fala em justiça, equidade e não discriminação, advertindo que algoritmos não devem criar ou reforçar preconceitos contra pessoas ou grupos. Também exige transparência, explicabilidade, auditabilidade e confiabilidade, com testes e validação científica.

Outro risco importante é o excesso de confiança na máquina. A resolução exige julgamento crítico do médico, atualização sobre limitações, riscos e vieses conhecidos, além do uso apenas de sistemas compatíveis com normas éticas, técnicas e regulatórias.

Existe ainda o risco de decisões automáticas opacas, isto é, recomendações difíceis de explicar ou contestar. Por isso a norma insiste em supervisão humana, possibilidade de revisão e governança institucional.

Quem responde se algo der errado?

A responsabilidade não desaparece porque houve uso de tecnologia.

O documento afirma que, no campo ético-profissional, o médico permanece integralmente responsável pelos atos médicos praticados com uso de IA. Também diz que o uso da tecnologia não pode servir para diluir ou ocultar responsabilidades, e que, em caso de dano decorrente de falha do sistema, devem ser adotadas medidas de reparação do paciente, sem prejuízo de eventual responsabilização de desenvolvedores ou fornecedores.

Isso é relevante porque desmonta uma ideia equivocada: a de que “a culpa foi da inteligência artificial”. Juridicamente e eticamente, a tecnologia não elimina o dever de cuidado nem apaga a necessidade de apuração de responsabilidades.

A IA na medicina pode ser usada sem regras?

Não.

A Resolução nº 2.454/2026 do Conselho Federal de Medicina (CFM) prevê classificação de risco em níveis baixo, médio, alto ou inaceitável. Também determina que instituições médicas que desenvolvam ou utilizem IA façam avaliação preliminar de risco, considerando impacto nos direitos fundamentais, criticidade do contexto de uso, grau de autonomia do sistema, intervenção humana e sensibilidade dos dados utilizados.

Além disso, a instituição médica ou o médico que desenvolver ou contratar soluções de IA deve estabelecer processos internos de governança para garantir segurança, qualidade e ética. Em instituições que adotem sistemas próprios, o texto prevê inclusive a criação de uma Comissão de IA e Telemedicina sob coordenação médica.

Isso mostra que a IA na medicina não deve ser tratada como mero “aplicativo novo”, mas como tecnologia de impacto relevante, sujeita a controle e monitoramento.

O que a norma protege na relação médico-paciente?

Um dos pontos mais humanos do documento é a defesa da relação terapêutica.

O texto diz que o médico deve assegurar que o uso de IA não comprometa a escuta qualificada, a empatia, a confidencialidade e o respeito à dignidade da pessoa humana. Também reforça que a introdução de sistemas automatizados não deve enfraquecer a confiança, a empatia e a comunicação franco-honesta que caracterizam a relação médico-paciente.

Isso significa que a inovação só é legítima quando melhora o cuidado sem desumanizá-lo.

Conclusão educativa

A IA na medicina pode trazer ganhos reais para diagnósticos, organização de informações, pesquisa e eficiência do atendimento. Mas, para o paciente, o ponto central não é apenas saber que a tecnologia existe. É entender que ela precisa operar com limites claros: supervisão humana, transparência, segurança de dados, possibilidade de questionamento e preservação da autoridade final do médico.

Em síntese, juridicamente e eticamente, considera-se que a IA na medicina é uma ferramenta de apoio ao cuidado, e não um substituto do médico, devendo seu uso respeitar os direitos do paciente, a proteção dos dados pessoais, a supervisão humana obrigatória e a responsabilidade profissional.

Gostou do conteúdo? Compartilhe!

Acesse nossas redes sociais!

Copyright © 2022 Licínio & Rodrigues Advogados Associados. Todos os direitos reservados