Removing animal and nonhuman records in Ovid Embase: A comparison of 11 filters

Este estudo compara o desempenho de 11 filtros no Ovid Embase para remover registros de animais e não humanos, revelando que a eficácia varia significativamente entre os métodos e depende de fatores como o tema, o tipo de publicação e o idioma, exigindo que especialistas discutam a adequação do filtro ao contexto específico da revisão.

Fulbright, H. A., Evans, C.

Publicado 2026-03-17
📖 5 min de leitura🧠 Leitura aprofundada
⚕️

Esta é uma explicação gerada por IA de um preprint que não foi revisado por pares. Não é aconselhamento médico. Não tome decisões de saúde com base neste conteúdo. Ler aviso legal completo

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é um cozinheiro tentando preparar um prato delicioso para humanos (um estudo sobre saúde humana). Mas, no seu armário de especiarias (que é o banco de dados Embase), há milhares de receitas misturadas: algumas são para humanos, outras são para cães, gatos, ratos e até plantas.

Se você usar a receita errada, pode acabar servindo um prato de "ração de cachorro" para seus convidados humanos, ou pior, jogar fora uma receita humana incrível porque achou que era de cachorro.

Este estudo é como um teste de chefes para ver qual é a melhor "peneira" (filtro) para separar as receitas humanas das de animais, sem estragar o prato.

Aqui está o resumo da história, traduzido para uma linguagem simples:

1. O Problema: A Peneira Imperfeita

Os pesquisadores (Helen e Connor) perceberam que, na internet científica, existem 11 tipos diferentes de "peneiras" que as pessoas usam para tentar tirar os registros de animais. O problema é que ninguém sabia ao certo qual dessas peneiras funcionava melhor. Algumas eram muito grossas (deixavam passar animais), outras eram muito finas (atrapalhavam e jogavam fora receitas humanas boas).

2. O Experimento: A Grande Prova de Fogo

Para descobrir a verdade, eles criaram um cenário de teste:

  • A Mistura: Eles pegaram 3.000 receitas (registros científicos) misturadas: algumas eram puramente de humanos, outras de animais, e algumas eram uma mistura estranha dos dois.
  • O Julgamento: Dois especialistas leram cada uma e decidiram: "Isso deve ficar?" (Humano) ou "Isso deve ir embora?" (Animal).
  • O Teste: Eles aplicaram as 11 peneiras diferentes e viram o que cada uma fez.

3. Os Resultados: Quem foi o Campeão?

Aqui estão as descobertas principais, usando analogias:

  • A Peneira "Super Sensível" (Método 11):
    Imagine uma peneira que tem buracos tão grandes que quase nada escapa. Ela foi a melhor em não jogar fora as receitas humanas. Se você tem medo de perder uma informação importante, essa é a sua escolha. Ela manteve 90,6% dos registros humanos corretos.

    • O lado ruim: Como ela é tão aberta, ela também deixou passar muitos "animais" que deveriam ter sido removidos.
  • A Peneira "Super Rigorosa" (Método 3):
    Imagine uma peneira com buracos minúsculos. Ela foi a melhor em tirar os animais. Se o seu objetivo é garantir que nenhum animal entre na sua lista, essa é a campeã. Ela removeu 91,7% dos registros de animais corretamente.

    • O lado ruim: Por ser tão rigorosa, ela também jogou fora muitas receitas humanas boas por engano (só manteve 75,4% dos humanos).
  • O Dilema:
    Geralmente, quanto mais você tenta tirar os animais, mais você acaba jogando fora humanos. É um equilíbrio delicado, como tentar pegar areia com as mãos: se você fechar a mão muito forte, a areia escapa; se deixar aberta, a areia fica.

4. O Que Foi Jogado Fora Por Engano?

Os pesquisadores olharam o que as peneiras jogaram fora que não deveriam ter sido jogado fora. A surpresa?
A maioria dos registros humanos que foram excluídos por engano eram sobre "uso de participantes humanos ou dados".

  • Analogia: Imagine que você estava procurando por receitas de bolo de cenoura, mas a peneira achou que, porque a receita mencionava "ovos" (que vêm de galinhas), ela deveria ser jogada fora. O filtro confundiu a menção a um animal com o fato de o estudo ser sobre animais.

5. Por Que Isso Acontece? (O Mistério da Indexação)

O banco de dados funciona como uma biblioteca onde os livros são organizados por etiquetas.

  • Às vezes, o bibliotecário (o indexador) esquece de colocar a etiqueta "Humano" em um livro sobre humanos.
  • Às vezes, o livro é um resumo de conferência ou um texto em outro idioma, e a etiqueta não é aplicada da mesma forma.
  • Se a peneira depende apenas dessas etiquetas, ela vai errar. É como tentar encontrar um amigo em uma festa apenas olhando para quem tem um crachá escrito "Humano". Se seu amigo esqueceu o crachá, você não vai vê-lo.

6. A Lição Final (O Conselho do Chef)

O estudo conclui que não existe uma peneira perfeita para todos os casos.

  • Se você está fazendo uma revisão de saúde mental: Talvez você queira incluir estudos sobre "terapia com cães de assistência". Se usar uma peneira muito forte, você vai perder esses estudos importantes.
  • Se você quer apenas testes clínicos em humanos: Você pode querer uma peneira mais forte para limpar a bagunça.

O conselho principal: Antes de escolher qual peneira usar, a equipe de pesquisa e o especialista em busca devem conversar. Eles devem perguntar: "Animais podem aparecer de forma relevante no nosso estudo?" Se a resposta for sim, use a peneira mais frouxa (Método 11). Se a resposta for não, e você quer pureza, use a mais rígida (Método 3), mas saiba que pode perder algumas joias humanas no processo.

Em resumo: Não existe mágica. Escolher o filtro certo é como escolher a ferramenta certa para o trabalho: depende do que você quer construir e do que você está disposto a perder no caminho.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →