Statistical significance in choice modelling: computation, usage and reporting

Este artigo comenta o uso excessivo e muitas vezes impreciso da significância estatística na modelagem de escolhas, criticando a dependência de níveis de confiança fixos e a notação por asteriscos, enquanto defende uma abordagem mais rigorosa no cálculo e relato de incertezas e a consideração da significância comportamental e política, especialmente em relação a medidas derivadas e heterogeneidade aleatória.

Stephane Hess, Andrew Daly, Michiel Bliemer, Angelo Guevara, Ricardo Daziano, Thijs Dekker

Publicado 2026-03-10
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é um cozinheiro tentando descobrir a receita perfeita para um bolo. Você mistura ingredientes (os dados), assa o bolo (o modelo) e prova o resultado. Mas como você sabe se o sabor que você sentiu é realmente devido ao açúcar que você adicionou, ou se foi apenas um acaso do paladar?

Este artigo, escrito por um grupo de especialistas em "modelagem de escolha" (que é basicamente a ciência de prever como as pessoas tomam decisões, como escolher entre ônibus, carro ou trem), é um guia de sobrevivência para entender essa dúvida. Eles falam sobre significância estatística, mas de um jeito que a maioria dos livros técnicos não faz.

Aqui está a explicação, traduzida para a linguagem do dia a dia, usando analogias:

1. O Problema do "Acaso" (Incerteza)

Quando você faz um estudo, você não pergunta a todas as pessoas do mundo, apenas a uma amostra. É como tentar adivinhar o sabor do tempero de uma panela gigante provando apenas uma colher.

  • A lição: O que você vê na sua colher (os seus resultados) pode ser diferente da panela inteira (a realidade). A "significância estatística" é apenas uma ferramenta para medir o quanto você pode confiar que o sabor que você provou não foi só sorte.

2. A Tirania do "95%" (O Limite Mágico)

A comunidade científica ficou obcecada com uma regra: se a chance de ser sorte for menor que 5% (ou seja, 95% de certeza), então o resultado é "significativo" e você pode colocar uma estrela (*) na tabela.

  • A analogia: É como se um juiz dissesse: "Só vou condenar o suspeito se tiver 95% de certeza. Se tiver 94%, ele é inocente, ponto final."
  • O problema: Os autores dizem que isso é perigoso. Às vezes, algo é muito importante para a sociedade (como o preço do combustível afetando quem usa o carro), mesmo que a "certeza matemática" seja de apenas 90%. Eles pedem para parar de tratar o 95% como uma linha mágica que separa o "verdadeiro" do "falso". Às vezes, um resultado com 94% de certeza ainda é muito útil para tomar decisões.

3. O Perigo das Estrelinhas (Asteriscos)

Muitos artigos usam asteriscos para mostrar o que é importante:

  • * = Importante
  • ** = Muito importante
  • *** = Super importante
  • A crítica: Os autores dizem que isso é como usar um semáforo cego. Se você só olhar para as estrelas, você perde a informação de quão importante é. É melhor olhar para o número real (o intervalo de confiança) para ver a margem de erro.
    • Exemplo: Dois ingredientes podem ter "três estrelas", mas um deles pode ter uma margem de erro tão grande que, na prática, você não sabe se ele deixa o bolo doce ou salgado. O outro pode ter uma margem de erro pequena e ser muito preciso. As estrelas escondem essa diferença crucial.

4. A Diferença entre "Existir" e "Importar"

Muitos pesquisadores ficam obcecados em provar que um efeito existe (é diferente de zero).

  • A analogia: Imagine que você está testando se um novo remédio funciona. Você prova que ele funciona (existe um efeito). Mas e se o efeito for tão pequeno que você nem percebe a diferença?
  • O conselho: Não basta saber que algo existe. Você precisa saber se ele é grande o suficiente para importar. Na modelagem de escolha, isso significa: "Esse fator muda a decisão das pessoas de forma relevante para a política pública?" Se sim, mantenha-o no modelo, mesmo que a estatística não esteja "perfeita".

5. O "Sanduíche" e o "Botão de Replay" (Métodos de Cálculo)

Para calcular o quanto podemos confiar nos resultados, os estatísticos usam fórmulas complexas.

  • O Método Clássico: É como usar uma régua padrão. Funciona bem na maioria das vezes, mas se os dados forem estranhos (como pessoas fazendo várias escolhas seguidas), a régua pode errar.
  • O Método "Sanduíche" (Robusto): É como usar uma régua de borracha que se adapta melhor a superfícies irregulares. Ela é mais segura quando os dados têm correlações estranhas.
  • O "Botão de Replay" (Bootstrap): Imagine que você tem um dado. Em vez de jogá-lo uma vez, você joga 1.000 vezes no computador para ver o que acontece. Isso simula a realidade milhares de vezes para ver onde o resultado realmente cai. É mais trabalhoso, mas muito mais honesto.

6. O Exemplo Prático (O Teste de Choque)

Os autores fizeram um teste real com dados de viagens de trabalho.

  • Eles descobriram que, ao usar o "Método Clássico", quase tudo parecia perfeito e significativo.
  • Ao usar o "Método Robusto" ou o "Botão de Replay", alguns resultados que pareciam ótimos ficaram mais fracos (a certeza caiu de 99% para 96%).
  • A lição: Se você usar apenas o método clássico, pode estar superestimando a confiança que tem nos seus resultados. É como achar que o tempo vai estar perfeito porque olhou apenas para o céu, sem verificar a previsão do tempo com radar.

Conclusão: O Que Fazer?

Os autores dão um conselho final para quem usa esses modelos:

  1. Pare de ser obcecado pelo 95%: Às vezes, 90% é suficiente se o impacto for grande. Às vezes, 99% é inútil se o efeito for minúsculo.
  2. Olhe além das estrelas: Mostre os números reais (erros padrão, intervalos de confiança). As estrelas escondem a verdade.
  3. Pense no comportamento: Pergunte-se: "Isso faz sentido para o comportamento humano?" Se sim, mantenha no modelo, mesmo que a estatística esteja "trêmula".
  4. Seja honesto sobre a incerteza: Não diga "é significativo". Diga "podemos rejeitar a ideia de que não há efeito com X% de confiança".

Em resumo, o artigo é um chamado para maturidade. Ele pede que os cientistas parem de usar a estatística como um jogo de "passou ou não passou" e comecem a usá-la como uma ferramenta para entender a complexidade e a incerteza do mundo real, onde as coisas raramente são preto no branco.