Covering Unknown Correlations in Bayesian Priors by Inflating Uncertainties

Dit artikel toont aan dat het mogelijk is om door inflatie van onzekerheden een prior-parametrisatie te kiezen die onder algemene aannames zorgt voor conservatieve achteraf-onzekerheden, zelfs wanneer de correlaties tussen onbekende verstorende parameters in gecombineerde Bayesiaanse analyses niet bekend zijn.

Lukas Koch

Gepubliceerd 2026-03-13
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Titel: Hoe je zekerheid behoudt als je niet weet hoe dingen met elkaar verbonden zijn

Stel je voor dat je twee verschillende teams hebt die proberen hetzelfde mysterie op te lossen: het gedrag van neutrino's (die kleine, spookachtige deeltjes). Team A en Team B hebben allebei hun eigen manier om de onzekerheden in hun metingen te beschrijven. Ze noemen deze onzekerheden "nuisance parameters" (lastige parameters), maar laten we ze gewoon onbekende factoren noemen.

Het probleem is dat Team A en Team B deze factoren op heel verschillende manieren hebben gemeten en beschreven.

  • Team A zegt: "We zijn niet zeker over de grootte van de botsingen."
  • Team B zegt: "We zijn niet zeker over het aantal deeltjes dat overblijft na de botsing."

In de echte wereld beschrijven deze twee waarschijnlijk precies hetzelfde fysieke proces. Als Team A's onzekerheid groot is, zou Team B's onzekerheid ook groot moeten zijn. Ze zijn 100% met elkaar verbonden. Maar omdat ze het in verschillende talen spreken, weten we niet precies hoe we die twee onzekerheden aan elkaar moeten koppelen.

Het Gevaar: Te Zeker Zijn

In de statistiek (en dan specifiek in de 'Bayesiaanse' methode) moet je voor elke onbekende factor een gok doen over hoe waarschijnlijk het is dat die factor een bepaalde waarde heeft. Dit noem je een prior (een voorafgaande veronderstelling).

Als je twee teams combineert, moet je beslissen: Zijn de onzekerheden van Team A en Team B onafhankelijk van elkaar, of hangen ze samen?

  • Als je denkt dat ze niet samenhangen, tel je de onzekerheden gewoon op.
  • Als je denkt dat ze wel samenhangen, moet je ze anders berekenen.

Het gevaar zit hem in het niet weten. Als je denkt dat ze onafhankelijk zijn, maar ze hangen eigenlijk wel samen, kun je per ongeluk denken dat je resultaat veel preciezer is dan het echt is. Je zou kunnen zeggen: "Wij weten het met 99% zekerheid!" terwijl het eigenlijk maar 80% is. Dit is als een brugbouwer die denkt dat de brug veilig is, maar de schroeven die hij gebruikt, blijken toch met elkaar verbonden te zijn en breken tegelijkertijd.

De Oplossing: De "Veiligheidsmarge"

De auteur van dit paper, Lukas Koch, heeft een slimme oplossing bedacht om dit probleem op te lossen zonder dat je de hele natuurkunde opnieuw hoeft uit te vinden.

Hij stelt voor: "Laten we er gewoon van uitgaan dat ze helemaal niets met elkaar te maken hebben, maar laten we de onzekerheid van beide teams een beetje opblazen."

Hoe werkt dat?
Stel je voor dat je twee teams hebt (2 blokken).

  1. Je neemt de onzekerheid van Team A en Team B.
  2. Je doet alsof ze totaal onafhankelijk zijn (geen verbinding).
  3. Maar om zeker te zijn dat je niet te optimistisch bent, vermenigvuldig je de onzekerheid met het aantal teams. In dit geval: vermenigvuldig alles met 2.

De Analogie van de Regenscherm:
Stel je voor dat je twee regenschermen hebt. Je weet niet of ze tegen dezelfde wind staan of niet.

  • Als je ze apart houdt, denk je dat je droog blijft als de wind uit één kant komt.
  • Maar als de wind uit een andere kant komt, kunnen beide schermen tegelijk falen.
  • De oplossing van Koch is: "Laten we doen alsof we twee schermen hebben, maar laten we doen alsof we vier schermen nodig hebben om veilig te zijn."

Door de onzekerheid op te blazen (inflatie), zorg je ervoor dat je resultaat conservatief is. Dat betekent: je zegt niet "We weten het precies", maar "We weten het met een grote veiligheidsmarge". Als de onzekerheden toch samenhangen, is je opgeblazen marge precies groot genoeg om dat op te vangen. Als ze niet samenhangen, heb je misschien een beetje te veel marge, maar dat is veiliger dan te weinig.

Waarom werkt dit?

Koch laat wiskundig zien dat, zolang de relatie tussen de onzekerheden en het eindresultaat redelijk lineair is (geen rare, gekrulde lijnen), deze methode altijd werkt.

  • De regel: Als je NN verschillende teams combineert, vermenigvuldig je de onzekerheid met NN.
  • Het resultaat: Je kunt er zeker van zijn dat je nooit de onzekerheid onderschat, zelfs als je niet weet hoe de teams met elkaar verbonden zijn.

Wanneer werkt het niet?

Deze truc werkt perfect voor kleine, onbelangrijke onzekerheden. Maar als één van die onzekerheden de grootste oorzaak is van je twijfel (bijvoorbeeld: "We weten niet eens of de brug wel bestaat"), dan is het vermenigvuldigen met 2 of 3 misschien niet genoeg, of juist te veel. In die gevallen moet je echt diep in de natuurkunde duiken om te begrijpen hoe de teams precies met elkaar verbonden zijn.

Conclusie

Kort samengevat: Als je twee wetenschappelijke teams samenbrengt die in verschillende talen praten over hun onzekerheden, en je weet niet hoe die onzekerheden met elkaar verbonden zijn, doe dan alsof ze los van elkaar staan, maar maak je marge groter.

Het is als het dragen van een extra dikke jas op een dag waarop je niet zeker weet of het gaat regenen of niet. Als het niet regent, heb je het misschien een beetje warm, maar als het stortregent, blijf je droog. Je voorkomt zo dat je nat wordt door een onbekende correlatie.