Estimation of relative risk, odds ratio and their logarithms with guaranteed accuracy and controlled sample size ratio

El artículo propone estimadores de dos etapas secuenciales para la razón de riesgos, la razón de momios y sus logaritmos que garantizan un error cuadrático medio relativo controlado y una relación de tamaños de muestra cercana a un valor prescrito para cualquier par de probabilidades, manteniendo una alta eficiencia respecto al límite de Cramér-Rao.

Luis Mendo

Publicado 2026-03-06
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que eres un detective estadístico en una misión muy importante: tienes que comparar dos grupos de personas (por ejemplo, los que tomaron una vacuna y los que no) para ver quién tiene más probabilidades de enfermar.

El problema es que no sabes de antemano cuántas personas necesitas investigar para estar 100% seguro de tu resultado. Si investigas a muy pocos, tu conclusión podría ser un error afortunado. Si investigas a demasiados, estás desperdiciando tiempo y dinero.

Este artículo de Luis Mendo presenta una "receta" inteligente para resolver este dilema. Aquí te explico cómo funciona, usando analogías sencillas:

1. El Problema: La "Adivinanza" de la Muestra

Imagina que quieres saber si un dado está trucado (Populación 1) comparándolo con un dado normal (Populación 2).

  • El riesgo relativo (RR): Es simplemente decir: "¿Cuántas veces más probable es que salga un 6 con el dado trucado que con el normal?".
  • El odds ratio (OR): Es una forma más compleja de medir esa ventaja, muy usada en medicina y aprendizaje automático.

El desafío es: ¿Cuántas veces debes lanzar los dados para estar seguro de tu cálculo? Si los dados son muy raros (la enfermedad es muy poco común), necesitas lanzarlos muchísimas veces. Si son comunes, con menos basta. Pero como no sabes la "rareza" real, no puedes decidir el número de lanzamientos de antemano.

2. La Solución: El Método de "Dos Fases" (El Ensayo y Error)

El autor propone un sistema de dos etapas, como si fueras a cocinar un plato complejo:

  • Fase 1: El "Prueba y Error" (La fase piloto).
    Empiezas lanzando los dados (o tomando muestras) de ambos grupos hasta obtener un número pequeño y fijo de "éxitos" (por ejemplo, 5 personas que enfermaron).

    • Analogía: Es como hacer un "bocadillo de prueba" para ver qué tan salada está la sopa. No comes todo el plato, solo pruebas un poco para tener una idea.
    • Con esta pequeña muestra, calculas una estimación aproximada de la diferencia entre los grupos.
  • Fase 2: La "Cocina Definitiva" (La fase de ajuste).
    Aquí viene la magia. Usas la información de la Fase 1 para decidir exactamente cuántos dados más necesitas lanzar en cada grupo.

    • Si la Fase 1 te dijo que el grupo A es muy raro, le dices al sistema: "¡Necesitamos muchos más lanzamientos del grupo A!".
    • Si el grupo B es común, dices: "Con pocos más es suficiente".
    • El sistema calcula automáticamente el número exacto para que tu error final sea menor a un límite que tú mismo elegiste (por ejemplo, "quiero estar seguro al 95%").

3. El Control de la "Equidad" (La Balanza)

A veces, no solo quieres precisión, sino que el número de personas de cada grupo sea equilibrado (o en una proporción específica, como 2 de un grupo por cada 1 del otro).

  • Analogía: Imagina que tienes dos balanzas. Quieres que el peso total de las manzanas (Grupo 1) y las peras (Grupo 2) mantenga una relación específica, pero no sabes cuántas frutas hay.
  • El método ajusta dinámicamente la cantidad de frutas que pones en cada lado para que, al final, la balanza esté casi perfecta, sin importar si las manzanas son muy pequeñas o muy grandes.

4. Dos Formas de Recoger los Datos

El artículo explica cómo aplicar esto de dos maneras:

  • Muestreo Individual (Element Sampling):
    Es como recoger frutas una por una. Si necesitas una manzana más, vas al árbol y coges una. Si necesitas una pera, vas al otro árbol. Es flexible y muy eficiente.
  • Muestreo por Grupos (Group Sampling):
    Imagina que tienes cajas. Cada caja viene con 3 manzanas y 2 peras preempaquetadas. No puedes abrir la caja y sacar solo una fruta; tienes que tomar la caja entera.
    • El truco: Si necesitas 10 manzanas y 5 peras, y las cajas traen 3 y 2, tendrás que tomar 4 cajas (que te dan 12 manzanas y 8 peras). Te sobrarán 2 manzanas y 3 peras que tirarás.
    • El autor demuestra que, aunque esto desperdicia un poco de fruta (datos), sigue siendo muy eficiente y garantiza que la proporción de cajas sea exacta.

5. ¿Por qué es genial este método?

  • Garantía de Precisión: A diferencia de los métodos antiguos que adivinaban el tamaño de la muestra, este método garantiza que tu error no superará un límite, sin importar cuán raro o común sea el fenómeno que estudias.
  • Eficiencia: No desperdicia recursos. Usa la cantidad justa de datos. Si el fenómeno es muy raro, trabaja más; si es común, trabaja menos.
  • Versatilidad: Funciona para medir riesgos simples (RR), odds ratios (OR) y sus versiones logarítmicas (que son útiles para algoritmos de Inteligencia Artificial).

En Resumen

Luis Mendo ha creado un algoritmo de "auto-ajuste". Es como un GPS que, en lugar de decirte "llegarás en 30 minutos" (fijo), te dice: "Mira el tráfico ahora mismo (Fase 1), calcula cuánto tardarás realmente y ajusta tu ruta (Fase 2) para llegar exactamente a la hora que prometiste, sin importar si hay un accidente o una carretera despejada".

Es una herramienta poderosa para médicos, científicos de datos y cualquier persona que necesite tomar decisiones basadas en datos sin gastar recursos innecesarios ni arriesgarse a conclusiones erróneas.