Estimation of relative risk, odds ratio and their logarithms with guaranteed accuracy and controlled sample size ratio

Der Artikel stellt Schätzer für das relative Risiko, das Odds-Verhältnis und deren Logarithmen vor, die auf einem zweistufigen sequenziellen Stichprobenverfahren basieren, um für beliebige Populationsparameter eine garantierte Genauigkeit bei einer kontrollierten Verhältniszahl der Stichprobengrößen zu erreichen.

Luis Mendo

Veröffentlicht 2026-03-06
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache Erklärung der wissenschaftlichen Arbeit von Luis Mendo, übersetzt in eine Alltagssprache mit ein paar kreativen Vergleichen.

Das große Problem: Der "Blindflug" bei medizinischen Studien

Stellen Sie sich vor, Sie sind ein Arzt oder ein Forscher. Sie wollen wissen, wie viel besser ein neues Medikament wirkt als ein Placebo. Dazu vergleichen Sie zwei Gruppen:

  1. Gruppe A: Die Leute, die das Medikament nehmen.
  2. Gruppe B: Die Leute, die das Placebo nehmen.

Sie wollen herausfinden: Wie viel höher ist die Wahrscheinlichkeit, dass ein Patient in Gruppe A gesund wird, im Vergleich zu Gruppe B?

Das nennt man das Relative Risiko (oder Relative Risk). Ein ähnliches Maß ist das Odds Ratio, das oft in der Statistik verwendet wird, um Zusammenhänge zu beschreiben.

Das Dilemma:
Normalerweise weiß man nicht genau, wie viele Leute man untersuchen muss.

  • Wenn man zu wenige Leute untersucht, ist das Ergebnis ungenau (wie ein Foto, das unscharf ist).
  • Wenn man zu viele untersucht, verschwendet man Zeit und Geld.
  • Das Schlimmste: Wenn die Krankheit sehr selten ist (z. B. nur 1 von 10.000), könnte man theoretisch unendlich viele Leute untersuchen und immer noch kein einziges Krankheitsbeispiel finden.

Zusätzlich gibt es oft eine Regel: Man möchte, dass die beiden Gruppen etwa gleich groß sind (oder in einem bestimmten Verhältnis stehen), damit der Vergleich fair ist.

Die Lösung: Ein "Zwei-Stufen-Takt" mit Rückwärtsgang

Der Autor Luis Mendo hat einen cleveren Weg gefunden, um dieses Problem zu lösen. Er nennt es sequenzielle Stichprobenziehung (sequentiell bedeutet: Schritt für Schritt).

Stellen Sie sich das Verfahren wie das Füllen zweier Eimer mit Wasser vor, aber mit einem besonderen Trick:

Stufe 1: Der "Schnelltest" (Die Pilotphase)

Bevor Sie die ganze Studie starten, machen Sie einen kleinen, schnellen Test.

  • Sie fangen an, Leute zu beobachten, bis Sie eine kleine, festgelegte Anzahl an "Erfolgen" (z. B. 3 Leute, die gesund werden) in beiden Gruppen gefunden haben.
  • Der Clou: Da Sie nicht wissen, wie häufig die Krankheit ist, dauert dieser Test bei einer seltenen Krankheit lange und bei einer häufigen kurz. Das ist okay, denn es ist nur ein kleiner Test.
  • Das Ergebnis: Aus diesem kleinen Test können Sie eine grobe Schätzung machen: "Ah, in Gruppe A scheint die Krankheit häufiger/seltener zu sein als in Gruppe B."

Stufe 2: Der "Hauptlauf" (Die eigentliche Studie)

Jetzt kommt der eigentliche Trick. Basierend auf dem Ergebnis aus Stufe 1 berechnet ein Computer genau, wie viele weitere Leute Sie noch brauchen müssen, um das Ergebnis mit der gewünschten Genauigkeit zu erreichen.

  • Wenn die Krankheit sehr selten ist, sagt der Computer: "Wir brauchen noch 10.000 Leute."
  • Wenn sie häufig ist: "Wir brauchen nur noch 50."
  • Die Magie: Der Algorithmus passt die Größe der zweiten Gruppe so an, dass am Ende das Verhältnis der Gruppengrößen genau so ist, wie Sie es wollten (z. B. 1:1), und die Genauigkeit garantiert ist.

Es ist wie beim Autofahren mit einem intelligenten Navi: Sie starten erst einmal los (Stufe 1), schauen auf die Karte, und dann berechnet das Navi exakt, wie viel Sprit Sie noch brauchen, um pünktlich anzukommen, ohne dass Sie vorher wissen mussten, wie weit die Strecke genau ist.

Zwei Arten des "Eimers" füllen

Der Autor beschreibt zwei Methoden, wie man die Daten sammelt:

  1. Einzelne Personen (Element Sampling):
    Sie schauen sich die Leute einzeln an. Sobald Sie einen brauchen, holen Sie ihn. Das ist sehr flexibel und effizient.

    • Vergleich: Sie gehen in ein Geschäft und kaufen genau die Anzahl an Äpfeln, die Sie brauchen, eine nach der anderen.
  2. Gruppenweise (Group Sampling):
    Manchmal können Sie die Leute nicht einzeln holen. Sie kommen in Paketen (z. B. aus einem Labor, das Proben in Chargen von 10 liefert).

    • Das Problem: Wenn Sie 10 Proben brauchen, aber die Lieferung 100 enthält, müssen Sie die restlichen 90 wegwerfen (oder für später aufheben).
    • Die Lösung des Autors: Sein Algorithmus funktioniert auch hier. Er berechnet, wie viele "Pakete" (Gruppen) Sie bestellen müssen, um genug Daten zu haben, ohne zu viel zu verschwenden. Es ist wie beim Bestellen von Pizza: Wenn Sie 3 Pizzen brauchen, aber nur in Paketen von 4 verkauft werden, bestellt man 2 Pakete (8 Pizzen) und isst die restlichen 5 später oder wirft sie weg. Der Algorithmus minimiert diesen "Verschleiß".

Warum ist das so toll?

  1. Garantierte Genauigkeit: Egal, ob die Krankheit extrem selten oder sehr häufig ist – das Ergebnis wird immer genau genug sein. Man muss nicht raten.
  2. Faire Gruppen: Die Methode sorgt dafür, dass die beiden Vergleichsgruppen immer im richtigen Verhältnis zueinander stehen.
  3. Effizienz: Man verschwendet so wenig Zeit und Ressourcen wie möglich. Die Methode ist fast so gut wie die theoretisch beste Methode, die es in der Mathematik gibt (die sogenannte Cramér-Rao-Schranke).

Zusammenfassung in einem Satz

Statt blindlings eine riesige Anzahl von Personen zu untersuchen, nutzt diese Methode einen kleinen "Probelauf", um zu berechnen, wie viele Personen man genau noch braucht, um ein präzises Ergebnis zu erhalten – und zwar so, dass die Gruppen fair bleiben und nichts verschwendet wird.

Es ist der Unterschied zwischen "Ich hoffe, ich habe genug Leute befragt" und "Mein Computer sagt mir genau, wann ich fertig bin."