Statistical significance in choice modelling: computation, usage and reporting

Este artículo critica el uso excesivo y a menudo impreciso de la significancia estadística en la modelización de elecciones, abogando por una mayor claridad en el reporte de incertidumbre y por priorizar la relevancia conductual y política junto con consideraciones específicas del campo, como la disposición a pagar y la heterogeneidad aleatoria.

Stephane Hess, Andrew Daly, Michiel Bliemer, Angelo Guevara, Ricardo Daziano, Thijs Dekker

Publicado 2026-03-10
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que este artículo es como un manual de instrucciones para cocineros que están intentando crear la receta perfecta para predecir cómo se comportará la gente (por ejemplo, si tomarán el autobús, el coche o la bicicleta).

Los autores (un grupo de expertos en modelado de elecciones) dicen: "Oye, estamos muy obsesionados con una regla de oro llamada 'significancia estadística' (el famoso 95% o p < 0.05), y eso nos está haciendo cometer errores. Vamos a explicar por qué y cómo arreglarlo".

Aquí tienes la explicación, traducida a un lenguaje sencillo con analogías:

1. El problema de la "Regla del 95%" (La obsesión por el semáforo verde)

Imagina que estás en una carretera y solo te fijas en el semáforo verde. Si la luz está verde (el resultado es "significativo"), conduces. Si está roja, te detienes y tiras el dato a la basura.

  • Lo que dicen los autores: En el mundo de la ciencia, nos volvimos locos con el "verde" (95% de confianza). Pensamos que si algo no es verde, no existe. Pero la realidad es más compleja. A veces, un dato es "amarillo" (no es 95% seguro, pero es muy probable) y sigue siendo muy importante para tomar decisiones.
  • La analogía: Si un político quiere construir un puente, no le importa si la probabilidad de que funcione es del 95.1% o del 94.9%. Le importa si el puente sirve para cruzar el río. A veces, un efecto es pequeño estadísticamente, pero enorme en la vida real (como el costo de un viaje).

2. La diferencia entre "Existe" y "Importa"

Muchos estudios se preguntan: "¿Existe este efecto?" (¿Es diferente de cero?).
Los autores dicen: *"¡Eso es aburrido! Pregunta mejor: ¿Cuánto importa este efecto?"*.

  • La analogía: Imagina que estás pesando una pluma y un elefante.
    • Con una balanza muy precisa, puedes decir con certeza del 99.9% que la pluma pesa algo (es "significativa").
    • Pero si estás construyendo un puente, la pluma no importa en absoluto. El elefante, aunque tu balanza tenga un poco de error, es lo que realmente importa.
    • En economía, a veces nos enfocamos tanto en la pluma (el dato estadístico) que olvidamos al elefante (el impacto real en el comportamiento).

3. El "Sándwich" de la incertidumbre (Cómo medir el error)

Para saber si un dato es bueno, necesitamos medir cuánto puede variar (su incertidumbre). Los autores explican que hay diferentes formas de hacer esto, como diferentes tipos de "sándwiches".

  • La analogía: Imagina que quieres saber cuánto mide tu perro.
    • El método clásico: Mides al perro una vez con una cinta métrica estándar.
    • El método "Sándwich" (Robusto): Imagina que el perro se mueve, está nervioso o la cinta métrica es un poco elástica. El método "sándwich" es como envolver al perro en varias capas de protección para medirlo mejor, incluso si se mueve.
    • El "Bootstrapping" (Resampling): Es como tener 100 fotógrafos que toman fotos del perro en diferentes momentos y luego promedian todas las fotos para ver la imagen más clara. Es más lento y costoso, pero muy preciso.

Los autores advierten que a veces usamos la cinta métrica simple (método clásico) cuando deberíamos usar el "sándwich" o los 100 fotógrafos, especialmente cuando tenemos datos repetidos (como la misma persona tomando el autobús todos los días).

4. La trampa de los "Estrellas" (***, **, *)

En muchos artículos científicos, verás números acompañados de estrellas: *** (muy importante), ** (importante), * (poco importante).

  • La analogía: Es como un examen escolar donde solo te dan la nota con estrellas, pero no te dicen la puntuación exacta.
    • Si un profesor te dice "Tienes 3 estrellas", no sabes si sacaste un 99 o un 91.
    • Los autores dicen: Dejen de usar solo las estrellas. Esos símbolos ocultan información valiosa. Si solo ves las estrellas, no puedes calcular los márgenes de error ni entender la precisión real. Es como decir "hace calor" en lugar de decir "hacen 35 grados".

5. El peligro de los "Modelos Mal Especificados"

A veces, los investigadores construyen un modelo (una receta) que no encaja bien con la realidad.

  • La analogía: Imagina que intentas predecir el clima usando una receta para hacer pan. Puedes obtener un resultado, pero será un pan quemado y un pronóstico de lluvia incorrecto.
    • Si usas el modelo equivocado, tus "estrellas" y tus "significancias" son falsas. Es como si el sándwich estuviera hecho con pan podrido; no importa cuánto lo envuelvas, el sabor será malo.
    • Los autores advierten que a veces los modelos tienen "errores de identificación" (como intentar adivinar el precio de un producto sin tener datos suficientes), lo que hace que los resultados sean inestables.

6. La conclusión: ¡Piensa con la cabeza, no solo con la calculadora!

El mensaje final es un llamado a la sensatez:

  1. No seas un robot: No elimines un dato solo porque no tiene 3 estrellas. Pregúntate: "¿Tiene sentido esto en la vida real?". Si el costo del viaje afecta a la gente, inclúyelo en el modelo aunque la estadística diga que es "dudoso".
  2. Sé honesto con los números: No redondees demasiado. Si tu error es pequeño, dilo con precisión.
  3. Cuida el contexto: Un resultado puede ser estadísticamente "ruidoso" pero comportamentalmente crucial.
  4. Mejora la comunicación: En lugar de decir "es significativo", di "podemos rechazar la idea de que no tiene efecto con un 95% de confianza". ¡El lenguaje importa!

En resumen:
Este artículo es un "baño de realidad" para los científicos de datos. Les dice: "Dejen de obsesionarse con el número 0.05 y las estrellas. Entiendan qué significa realmente la incertidumbre, usen herramientas más robustas (como el sándwich o el bootstrapping) y, sobre todo, piensen en si sus hallazgos tienen sentido para la gente real, no solo para la calculadora".