Trust in, acceptance of, and responsibility for, artificial intelligence in healthcare: patient and healthcare practitioner considerations

Este estudo qualitativo realizado no Erasmus Medical Center na Holanda revela que, embora profissionais de saúde e pacientes compartilhem preocupações sobre a responsabilidade da inteligência artificial na oncologia cirúrgica, suas perspectivas divergem significativamente, com os profissionais focando em validação e integração clínica, enquanto os pacientes priorizam a atenção humana e a confiança no médico.

Spencer, E.-J., Ihaddouchen, I., Buijsman, S., Jung, J., van der Vorst, J., Grünhagen, D., Verhoef, K., Gommers, D., van Genderen, M. E., Hilling, D.

Publicado 2026-03-17
📖 5 min de leitura🧠 Leitura aprofundada
⚕️

Esta é uma explicação gerada por IA de um preprint que não foi revisado por pares. Não é aconselhamento médico. Não tome decisões de saúde com base neste conteúdo. Ler aviso legal completo

Each language version is independently generated for its own context, not a direct translation.

Imagine que a inteligência artificial (IA) na saúde é como um co-piloto muito inteligente que acabou de entrar na cabine de um avião (o hospital). Este co-piloto tem lido milhões de manuais e visto milhões de voos, mas nunca pilotou um avião sozinho.

Este estudo é como uma conversa entre os pilotos experientes (médicos e enfermeiros) e os passageiros (pacientes) para perguntar: "O que vocês acham desse novo co-piloto? Podemos confiar nele? Quem é o chefe?"

Aqui está o resumo da conversa, traduzido para uma linguagem simples e com algumas analogias:

1. O que eles sabem sobre o "Co-piloto"? (Conhecimento)

  • Os Pilotos (Médicos): Eles sabem que o co-piloto existe e é popular, mas muitos não entendem exatamente como o motor funciona. Alguns dizem: "Eu sei que ele é rápido, mas não sei se ele vai falhar". Eles querem saber: "De onde vêm os dados que ele leu? Ele foi treinado com pessoas como os meus pacientes?"
  • Os Passageiros (Pacientes): Para a maioria, a IA é como um "truque de mágica" ou algo que viram no Instagram. Eles sabem que é o futuro, mas não entendem a mágica. O medo deles não é a tecnologia em si, mas sim não entender o que está acontecendo com o seu próprio corpo.
  • A Lição: Ninguém precisa ser um engenheiro de computadores para confiar, mas todos precisam saber as regras do jogo e onde o co-piloto pode errar.

2. Quem segura o volante? (Responsabilidade e Autonomia)

  • Os Pilotos: Eles dizem com firmeza: "Eu sou o capitão. O co-piloto pode dar dicas, mas a decisão final é minha." Eles têm medo de confiar cegamente na máquina e perder o "feeling" (a intuição) que só a experiência humana traz. Eles querem manter o controle.
  • Os Passageiros: Eles querem ser ouvidos. O maior medo deles é: "E se o computador disser que estou bem, mas eu me sentir mal? O médico vai me ouvir ou vai apenas olhar para a tela?" Eles não querem ser apenas números em uma planilha.
  • O Conflito: Os médicos acham que os pacientes não querem saber detalhes técnicos. Os pacientes dizem: "Na verdade, queremos saber como a decisão foi tomada, para não nos sentir ignorados."

3. O "Co-piloto" é justo? (Viés e Justiça)

  • Os Pilotos: Eles estão preocupados. "Esse co-piloto foi treinado apenas com dados de americanos brancos? E se eu tiver um paciente de outra etnia ou de um país diferente, ele vai funcionar?" Eles sabem que se os dados de treino forem parciais, o co-piloto será injusto.
  • Os Passageiros: Eles pensam de forma mais pessoal: "E se o sistema não entender a minha cultura ou a minha situação específica?" Eles temem que a tecnologia trate todos iguais, ignorando que cada pessoa é única.

4. A Relação Humana (Confiança)

  • A Grande Diferença:
    • Para os médicos, a confiança na IA depende de provas e testes. "Mostre-me que ele funciona em 99% dos casos antes de eu usar."
    • Para os pacientes, a confiança não está na máquina, mas no médico. "Eu confio no Dr. João. Se o Dr. João diz que o computador está certo, eu confio. Se o Dr. João diz que o computador está errado, eu confio no Dr. João."
  • O Risco: Se o médico usar o computador apenas para "convencer" o paciente a fazer algo (ex: "O computador diz que você pode ir para casa"), o paciente pode se sentir pressionado e não ouvido.

5. Na Prática: Funciona no dia a dia? (Operação)

  • O Sonho: Todos concordam que a IA poderia ajudar a organizar a bagunça. Imaginem que a IA faz a papelada chata (relatórios, checar dados) em segundos, deixando o médico livre para olhar nos olhos do paciente e cuidar dele.
  • O Pesadelo: O medo é que a IA se torne mais uma tarefa chata. "Se eu tiver que clicar em 100 caixinhas para usar o computador, isso vai me dar mais trabalho, não menos."
  • O Veredito: A IA só será aceita se se encaixar perfeitamente no trabalho do médico, como uma ferramenta que some quando não é usada, e não como um novo chefe que exige atenção constante.

Conclusão: O Que Aprendemos?

Este estudo nos diz que não basta criar um "co-piloto" super inteligente. Para que ele funcione:

  1. Médicos precisam entender os limites da máquina para não dependerem demais dela.
  2. Pacientes precisam sentir que a tecnologia não vai substituir o toque humano e que suas vozes ainda importam.
  3. A Confiança é construída quando o médico usa a IA como uma ferramenta de apoio, mas mantém a relação humana no centro.

Em resumo: A IA é como um mapa muito detalhado. Ela pode mostrar o caminho mais rápido, mas quem decide a rota, quem segura o volante e quem cuida dos passageiros somos nós, os humanos. O mapa é útil, mas não deve substituir o motorista.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →