When correcting for regression to the mean is worse than no correction at all

Este artículo demuestra que los métodos comunes para corregir la regresión a la media suelen ser problemáticos y propone que la estrategia más robusta consiste en comparar la pendiente bruta sin corregir con una expectativa nula estructural basada en la repetibilidad de las mediciones, en lugar de aplicar correcciones que pueden introducir sesgos o errores.

Autores originales: José F. Fontanari, Mauro Santos

Publicado 2026-03-03
📖 5 min de lectura🧠 Análisis profundo
⚕️

Esta es una explicación generada por IA de un preprint que no ha sido revisado por pares. No es consejo médico. No tome decisiones de salud basándose en este contenido. Leer descargo de responsabilidad completo

Each language version is independently generated for its own context, not a direct translation.

Imagina que eres un entrenador de un equipo de atletas. Tienes una regla de oro: "Los que empiezan muy mal, suelen mejorar mucho; y los que empiezan muy bien, a veces parecen empeorar o mejorar menos".

Esto suena lógico, ¿verdad? Pero, ¿es realmente porque el entrenamiento funciona así, o es solo una ilusión óptica de las matemáticas?

Este artículo científico es como un detective que desmonta una trampa estadística muy común en biología y medicina. Los autores, José Fontanari y Mauro Santos, nos explican por qué intentar "corregir" este fenómeno (llamado regresión a la media) con las fórmulas que todos usan actualmente, a menudo es peor que no hacer nada.

Aquí tienes la explicación sencilla, con analogías:

1. El Problema: La "Trampa del Eco" (Regresión a la Media)

Imagina que mides la altura de un grupo de niños un día. Algunos salen muy altos por puro azar (quizás se estiraron, o la cinta métrica estaba mal puesta). Al día siguiente, mides de nuevo. Esos niños "muy altos" por azar probablemente volverán a su altura normal.

  • Lo que parece: "¡Los niños que empezaron muy altos, bajaron de altura! ¡Hay una relación mágica!"
  • La realidad: Es solo ruido. Es como si lanzaras una moneda y saliera "Cara" 10 veces seguidas por suerte. La próxima vez, es casi seguro que saldrá "Cruz". No es que la moneda esté "cansada" de dar caras; es solo estadística.

En biología, esto pasa todo el tiempo: si tomas el peso de un pájaro o la tolerancia al calor de un lagarto, siempre hay errores de medición. Esos errores crean una ilusión de que "los que empezaron extremos, vuelven a la normalidad".

2. El Error Común: El "Parche Defectuoso" (El método de Berry)

Durante años, los científicos han usado una fórmula (el método de Berry) para intentar "limpiar" estos datos y ver la verdad.

  • La analogía: Imagina que tienes una foto borrosa (tus datos con error). En lugar de intentar entender por qué está borrosa, decides poner un filtro digital que dice: "Voy a hacer que todo se vea nítido".
  • El problema: Ese filtro (el método de Berry) a veces borra la realidad.
    • Si la verdad es que no hay ningún efecto, el filtro a veces inventa uno.
    • Si la verdad es que hay un efecto fuerte, el filtro lo hace desaparecer.
    • Es como intentar arreglar un reloj roto golpeándolo: a veces funciona, pero a menudo lo rompes más. Los autores dicen que este método es poco fiable y puede llevarte a conclusiones biológicas falsas.

3. La Solución "Perfecta" pero Impráctica (El método de Blomqvist)

Existe otro método (Blomqvist) que es matemáticamente perfecto. Es como tener una lupa mágica que ve a través del ruido.

  • El problema: Para usar esta lupa, necesitas saber exactamente cuánto ruido hay (la precisión de tu medición).
  • La realidad: En la vida real, rara vez sabemos eso con exactitud. Además, si tienes pocos datos (pocos animales o pacientes), esta lupa es tan sensible que te da resultados que saltan de un lado a otro, volviéndose inútiles. Es como intentar adivinar el precio de una casa en una isla desierta: la fórmula es perfecta, pero si no tienes datos, el resultado es un caos.

4. La Propuesta de los Autores: "No arregles, compara"

En lugar de intentar limpiar los datos (lo cual suele crear más problemas), los autores proponen una estrategia más inteligente y honesta:

La analogía del "Piso de Baile":
Imagina que estás en una fiesta y ves a la gente moverse. Algunos se mueven mucho, otros poco.

  1. No intentes adivinar por qué se mueven así.
  2. En su vez, calcula cuánto se moverían si solo hubiera ruido (si todos estuvieran borrachos y tropezando al azar).
  3. Luego, compara tu observación real con ese "ruido de fondo".

¿Cómo lo hacen?
Dicen: "No corrijas los datos. Toma tu resultado crudo (sin tocarlo) y compáralo con lo que esperarías si todo fuera solo error de medición".

  • Si tu resultado es más extremo que lo que el error de medición podría explicar por sí solo, ¡entonces tienes un hallazgo real!
  • Si tu resultado es similar a lo que el error de medición explicaría, entonces no hay nada que ver; es solo ruido.

5. Ejemplos Reales del Papel

Los autores aplican esto a dos casos famosos:

  • Los Lagartos: Se pensaba que los lagartos que ya aguantaban mucho calor no podían mejorar más (una "compensación"). Al usar su nuevo método, descubrieron que esa "compensación" podría ser solo una ilusión estadística. Dependiendo de qué tan precisas sean las mediciones, la conclusión cambia totalmente.
  • Los Pájaros y el Envejecimiento: Se creía que los pájaros con telómeros (una parte del ADN) más largos envejecían más rápido. Al aplicar la prueba de "ruido vs. realidad", vieron que la evidencia no era tan sólida como se pensaba; podría ser solo el efecto de la regresión a la media.

Conclusión: La Lección para Todos

El mensaje final es sencillo pero poderoso:

"No intentes borrar el ruido con fórmulas mágicas. Primero, entiende cuánto ruido tienes en tu experimento."

Si no sabes qué tan precisas son tus mediciones (la "repetibilidad"), cualquier conclusión sobre si un tratamiento funciona o no es, en el mejor de los casos, una suposición y, en el peor, una mentira estadística.

En lugar de gastar energía en "corregir" los datos, los científicos deberían dedicar esa energía a medir la precisión de sus herramientas y comparar sus resultados con lo que el azar podría haber producido. Es la diferencia entre ver un fantasma en la niebla y saber que es solo un árbol movido por el viento.

¿Ahogado en artículos de tu campo?

Recibe resúmenes diarios de los artículos más novedosos que coincidan con tus palabras clave de investigación — con resúmenes técnicos, en tu idioma.

Probar Digest →