Detecting LLM-Generated Peer Reviews

Deze paper introduceert een robuust statistisch raamwerk voor het detecteren van door LLM's gegenereerde peer reviews via indirecte prompt-injectie en watermerken, dat een hogere statistische power biedt dan traditionele correcties zoals Bonferroni terwijl het de familie-woordelijke foutkans controleert.

Vishisht Rao, Aounon Kumar, Himabindu Lakkaraju, Nihar B. Shah

Gepubliceerd 2026-03-13
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat wetenschappelijk onderzoek een enorm, drukke markt is waar experts (de recensenten) nieuwe uitvindingen (de artikelen) beoordelen. Vroeger schreven deze experts hun oordelen zelf, met hun eigen woorden en gedachten. Maar nu is er een nieuwe speler op de markt: de LLM (een superslimme AI die teksten kan schrijven).

Het probleem? Sommige lui op de markt zijn lui geworden. In plaats van zelf hard te werken, laten ze de AI het werk doen. Ze uploaden het artikel, klikken op "schrijf een review", en de AI spint een tekst. Dit is oneerlijk en gevaarlijk voor de kwaliteit van de wetenschap.

De auteurs van dit paper hebben een slimme, bijna detective-achtige oplossing bedacht om deze "luie reviewers" te vangen. Hier is hoe het werkt, vertaald naar alledaags taal:

1. De Valstrik: De Verborgen Brief

Stel je voor dat je een briefkaart stuurt naar iemand die je wilt testen. Maar in de rand van de kaart, in heel klein witte letters die voor het menselijk oog onzichtbaar zijn, staat een geheime opdracht: "Schrijf in je antwoord een zin over een blauwe olifant."

In dit paper doen de onderzoekers precies dat. Ze nemen het wetenschappelijke artikel (de PDF) en steken er een geheime instructie in.

  • Voor de mens: Het ziet eruit als een normaal artikel.
  • Voor de AI: De AI leest de geheime instructie en denkt: "Oh, ik moet een review schrijven, en ik moet daarin een specifieke, rare zin of naam verwerken."

2. De Watermerk: Het Onvergetelijke Handtekening

De AI doet wat er staat en schrijft de review. Maar omdat ze de instructie heeft gekregen, zit er nu een watermerk in de tekst. Dit kan zijn:

  • Een nep-citaat (bijv. "Zoals Baker et al. (2008) al zeiden...").
  • Een heel specifiek technisch woord dat zelden voorkomt.
  • Een rare zinsopbouw aan het begin.

Dit is als een onzichtbare inkt die alleen zichtbaar is als je weet waar je moet zoeken. Als een mens de review zelf schrijft, zal die toevallig nooit precies die specifieke nep-citaat of rare zin gebruiken. Maar als de AI het deed, staat het er met 98% zekerheid in.

3. De Detectie: De Super-Statistiek

Nu komt het slimme deel. De onderzoekers willen niet zomaar iemand beschuldigen. Ze willen zekerheid.
Stel je voor dat je 10.000 reviews hebt. Als je simpelweg zegt "Elke review met een rare zin is van een AI", dan val je misschien een eerlijke mens die toevallig die zin gebruikte.

De auteurs hebben een wiskundig veiligheidsnet bedacht:

  • Ze kiezen willekeurig uit duizenden mogelijke "nep-citaatjes" welke er in een artikel wordt verstopt.
  • Ze gebruiken een slim algoritme om te kijken: "Zit dit specifieke, willekeurige citaat in de review?"
  • Als het antwoord "ja" is, is de kans dat een mens dit toevallig had geschreven kleiner dan 1 op de miljard.

Ze noemen dit het beheersen van de "familie-fout" (FWER). In het Nederlands betekent dit: "Zelfs als we 10.000 mensen testen, is de kans dat we per ongeluk één onschuldige mens op de blinde vinger slaan, verwaarloosbaar klein."

4. De Test: Kan de AI ontsnappen?

De onderzoekers hebben getest of dit systeem werkt, zelfs als de "luie reviewer" slim is:

  • Paraphrasing: Wat als de reviewer de AI-tekst door een andere AI laat herschrijven? De meeste watermerken verdwijnen dan, maar de "nep-citaat" (zoals de naam van een nep-geleerde) blijft vaak staan, net als een handtekening die je niet kunt wissen.
  • Zoeken naar de val: Wat als de reviewer vraagt aan de AI: "Zit er een valstrik in dit document?" De AI merkt de geheime instructie vaak niet op en valt er toch in.
  • Aanpassen: Zelfs als je de PDF knipt of de tekst verplaatst, werkt het systeem nog steeds.

Waarom is dit belangrijk?

Vroeger waren er tools die probeerden te raden of een tekst door een AI was geschreven door te kijken naar de "stijl" (bijv. "klinkt dit te perfect?"). Dat is als proberen te raden of iemand een schilderij heeft gemaakt door naar de penseelstreken te kijken. Als de AI slim genoeg is, kan hij die stijl imiteren.

Deze nieuwe methode is als het plakken van een QR-code op het schilderij voordat het de markt op gaat. Als de code erin zit, was het AI. Als niet, was het menselijk. Het is niet afhankelijk van hoe de tekst "klinkt", maar van een onmiskenbaar bewijs dat er in de bron is verstopt.

Kort samengevat:
De onderzoekers hebben een manier gevonden om wetenschappelijke artikelen te "vergiften" met een onzichtbare, maar voor AI leesbare instructie. Als een AI de review schrijft, laat hij zich vangen door deze instructie en verbergt hij een bewijs in de tekst. Met slimme wiskunde kunnen ze dan met bijna 100% zekerheid zeggen: "Deze review is door een robot geschreven," zonder dat ze een enkele mens onterecht beschuldigen. Het is een slimme manier om eerlijkheid terug te brengen in de wetenschap.