Face-selective responses correlate with deep networks that learn from environment feedback

Dit onderzoek toont aan dat een versterkingsleermodel, dat gezichtswaarneming simuleert door feedback uit de omgeving te gebruiken, neurale responsen in gezichtsspecifieke hersengebieden even goed kan verklaren als toezichthoudende en onzichthoudende modellen.

Oorspronkelijke auteurs: Zhou, M., Schwartz, E., Alreja, A., Richardson, M., Ghuman, A., Anzellotti, S.

Gepubliceerd 2026-02-27
📖 4 min leestijd☕ Koffiepauze-leesvoer
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

De Geheime Code van het Brein: Hoe AI Leren van de Wereld Net als Wij

Stel je voor dat je brein een enorme, super-snelle computer is die de wereld om je heen probeert te begrijpen. Wetenschappers hebben al jaren geprobeerd om deze computer te nabootsen met kunstmatige intelligentie (AI), vooral als het gaat om het herkennen van gezichten. Maar er was een groot probleem: de meeste AI-modellen leren op een manier die voor mensen onrealistisch is.

Het Probleem: De "Cursus" vs. De "Straat"

Stel je voor dat je wilt leren wie je buren zijn.

  • De oude manier (Supervised Learning): Je krijgt een boek met foto's en een lijstje erbij met de namen erbij geschreven. "Dit is meneer Jansen, dit is mevrouw De Vries." Je leert door dit boek uit je hoofd te leren. Dit werkt goed, maar in het echte leven heeft niemand zo'n boekje bij zich. Je weet niet van tevoren wie je tegenkomt.
  • De nieuwe manier (Unsupervised Learning): Je krijgt alleen maar foto's, zonder namen. Je probeert zelf patronen te vinden, zoals "deze twee foto's lijken op elkaar". Dit is slimmer, maar het mist een belangrijk stukje: feedback. Het leert niet of een persoon aardig of onvriendelijk is.
  • De echte wereld: In het echt leren we door ervaring. Als je iemand ontmoet die je een lachend gezicht geeft en een handdruk, denk je: "Deze persoon is leuk, ik ben blij dat ik hem zag." Als iemand je boos aankijkt, denk je: "Blijf uit de buurt." Je brein leert door beloningen (positieve gevoelens) en straffen (negatieve gevoelens) uit de omgeving.

De Oplossing: Een AI die Loopt in de Straat

De auteurs van dit onderzoek wilden weten: Kunnen we een AI maken die leert zoals wij? Niet door een boekje te lezen, maar door te "proberen" en te "voelen" wat er gebeurt?

Ze bouwden een nieuw soort AI-model, een Versterkend Leermodel (RL-model).

  • Hoe het werkt: De AI kreeg foto's van gezichten te zien. Het moest dan een keuze maken: "Benader deze persoon" of "Blijf weg".
  • De beloning: Als de AI een "aardig" gezicht benaderde, kreeg hij een puntje (beloning). Als hij een "boos" gezicht benaderde, kreeg hij een straf.
  • Het doel: De AI moest leren welke gezichten het beste waren om te benaderen, puur op basis van de punten die hij verdiende. Geen namen, geen boekjes, gewoon ervaring.

De Test: De Brein-Scan

Om te zien of dit model echt slim was, keken de onderzoekers naar het brein van mensen. Ze hadden 11 vrijwilligers die al in het ziekenhuis lagen (voor epilepsie-onderzoek) en die elektroden in hun hersenen hadden. Deze elektroden konden heel precies meten welke delen van het brein reageerden als de mensen naar gezichten keken.

De onderzoekers stelden de vraag: Reageert het menselijke brein op gezichten op dezelfde manier als onze nieuwe AI?

De Resultaten: Een Verassende Overwinning

Het resultaat was verbazingwekkend:

  1. De nieuwe AI deed het net zo goed als de oude: Het model dat leerde door beloningen (de "straat-leraar") kon de hersenactiviteit net zo goed voorspellen als de modellen die leerden met boekjes (namen) of zonder feedback.
  2. De architectuur telt: Dit werkte alleen als ze een heel specifiek type "hersenen" voor de AI gebruikten (een combinatie van twee geavanceerde netwerken). Met een standaard AI-ontwerp werkte het niet zo goed.
  3. De timing: De overeenkomst tussen de AI en het menselijke brein was het sterkst in de eerste 125 tot 175 milliseconden nadat iemand een gezicht zag. Dat is het moment waarop je brein eigenlijk al weet: "Oh, dat is een gezicht!"

Waarom is dit belangrijk?

Dit onderzoek is als het vinden van de ontbrekende schakel in een puzzel.

  • Het laat zien dat we niet hoeven te vertrouwen op "boekjes" (labels) om te begrijpen hoe het brein werkt.
  • Het bewijst dat ervaring en feedback (zoals "deze persoon is leuk") cruciaal zijn voor hoe we gezichten zien en onthouden.
  • Het suggereert dat als we AI willen maken die echt menselijk denkt, we hem niet alleen moeten laten "studeren", maar hem de kans moeten geven om te "leven" en te leren van de wereld om hem heen.

Kort samengevat:
Wetenschappers hebben een nieuwe manier gevonden om computers te laten leren over gezichten. In plaats van ze te laten studeren met een lijstje namen, lieten ze ze "proberen" en "voelen" wat er gebeurt. Het bleek dat deze manier van leren, net als bij mensen, leidt tot een heel goed begrip van hoe ons eigen brein werkt. Het is alsof we eindelijk hebben ontdekt dat het brein niet werkt als een bibliotheek, maar als een avonturier die leert door de wereld te verkennen.

Verdrinkt u in papers in uw vakgebied?

Ontvang dagelijkse digests van de nieuwste papers die bij uw onderzoekswoorden passen — met technische samenvattingen, in uw taal.

Probeer Digest →