Safer Reasoning Traces: Measuring and Mitigating Chain-of-Thought Leakage in LLMs

Dit onderzoek analyseert hoe Chain-of-Thought-prompting de privacyrisico's van LLMs verhoogt door persoonsgegevens te onthullen, en evalueert verschillende lichtgewicht methoden om deze lekken tijdens de inferentie te detecteren en te beperken.

Patrick Ahrend, Tobias Eder, Xiyang Yang, Zhiyi Pan, Georg Groh

Gepubliceerd 2026-03-09
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ De Geheime Notitieblokken van AI: Waarom "Denken" Gevaarlijk Kan Zijn

Stel je voor dat je een slimme assistent hebt die voor je werkt. Je geeft hem een opdracht, bijvoorbeeld: "Schrijf een e-mail naar mijn baas, maar gebruik mijn telefoonnummer en creditcardnummer niet in de tekst."

Normaal gesproken zou de AI dit doen. Maar in dit onderzoek kijken we naar wat er gebeurt als we de AI vragen om eerst stap-voor-stap na te denken (dit noemen ze Chain-of-Thought of CoT) voordat hij het antwoord geeft.

🧠 Het Probleem: De "Gedachten" Lekken

Het onderzoek laat zien dat wanneer we de AI vragen om hardop te denken (zijn "denkproces" te tonen), hij vaak per ongeluk zijn geheime notities laat zien.

  • De Analogie: Stel je voor dat je een kok bent die een recept maakt. Je zegt tegen de kok: "Maak een taart, maar noem de naam van de klant niet."
    • Zonder denken: De kok maakt de taart en geeft hem aan jou. Geen probleem.
    • Met denken: De kok begint hardop te mompelen: "Oké, ik neem bloem. Dan suiker. Oh wacht, de klant heet Jan en zijn nummer is 06-12345678. Ik moet die taart voor Jan maken..."
    • Het gevaar: Zelfs als de kok aan het einde zegt "Hier is de taart, Jan is hier niet bij," heeft hij al zijn geheimen in zijn mompels (het denkproces) gezet. Iedereen die luistert, weet nu wie Jan is en wat zijn nummer is.

🔍 Wat hebben de onderzoekers gedaan?

De onderzoekers van de Technische Universiteit München hebben een soort "privacietest" bedacht. Ze hebben verschillende AI-modellen (zoals Llama, GPT, Claude) getest met 11 soorten gevoelige informatie (van namen tot creditcardnummers).

Ze stelden drie belangrijke vragen:

  1. Maakt "denken" het erger?

    • Ja, heel erg. Zonder denkproces lekten sommige AI's weinig informatie. Maar zodra ze mochten "denken", lekten ze bijna alles uit. Het was alsof je een slot op de deur doet, maar de sleutel in de brievenbus gooit terwijl je denkt.
    • Vergelijking: Het is alsof je een veiligheidsdeur hebt, maar je laat de sleutel op de mat liggen terwijl je naar de deur loopt.
  2. Hoeveel "denken" is veilig?

    • Ze gaven de AI's verschillende hoeveelheden tijd (of "tokens") om na te denken.
    • Verrassing: Bij sommige AI's werd het probleem erger naarmate ze langer mochten denken. Bij andere AI's bleef het gelijk. Het hangt dus af van welk "brein" je gebruikt.
    • Vergelijking: Bij sommige auto's wordt de motor warmer naarmate je langer rijdt. Bij andere blijft hij koel. Je moet weten welk type auto je hebt.
  3. Kunnen we dit stoppen met een "poortwachter"?

    • Ze testten vier manieren om te controleren of de AI iets lekte voordat het antwoord naar jou ging.
    • De Poortwachters:
      1. De Regelwachter: Kijkt alleen naar vaste patronen (zoals "is er een @-teken?"). Dit werkt goed voor e-mails, maar mist slimme vermommingen.
      2. De Woordzoeker: Kijkt naar woorden die vaak voorkomen bij geheimen.
      3. De Naamherkenner (GLiNER): Een slimme scanner die zoekt naar namen, adressen en nummers, zelfs als ze anders geschreven zijn.
      4. De AI-Rechter: Een andere, nog slimmere AI die kijkt of de eerste AI iets verkeerds heeft gezegd.

🏆 De Resultaten: Er is geen perfecte oplossing

Geen enkele poortwachter was perfect voor elke situatie.

  • De AI-Rechter was heel goed in het vinden van fouten, maar soms te traag of te streng.

  • De Naamherkenner (GLiNER) was het beste in het beschermen van de allerbelangrijkste geheimen (zoals creditcardnummers), zelfs als hij soms kleine foutjes mistte.

  • De Regelwachter was snel, maar liet veel gevaarlijke dingen door.

  • De les: Je kunt niet één soort poortwachter op alle deuren zetten. Je moet een combinatie gebruiken, afhankelijk van wie de AI is en wat voor soort geheimen erin zitten.

💡 Wat betekent dit voor jou?

Als je AI gebruikt om gevoelige dingen te doen (zoals medische gegevens of financiële info), moet je oppassen als je vraagt om "stap-voor-stap uitleg". De AI kan die uitleg gebruiken om zijn geheimen te onthullen, zelfs als je zegt: "Zeg het niet."

De boodschap:
Denkproces van AI is handig voor het oplossen van moeilijke problemen, maar het is ook een gevaarlijk open raam voor privacy. Om veilig te zijn, moeten we slimme "poortwachters" gebruiken die controleren wat er uit dat raam komt, en we moeten weten dat geen enkele oplossing voor iedereen werkt.

Kortom: Laat de AI niet te hardop denken als het om geheimen gaat, of zorg dat er een strenge bewaker staat die luistert naar wat er gezegd wordt voordat het naar jou gaat.