Each language version is independently generated for its own context, not a direct translation.
Titel: Hoe we AI leren om "niet te weten" wanneer het iets onbekends ziet
Stel je voor dat je een zeer slimme robot hebt die alle soorten appels kan herkennen. Hij is getraind met duizenden foto's van rode, groene en gele appels. Als je hem een foto van een appel geeft, zegt hij: "Dat is een appel!" met 100% zekerheid.
Maar wat gebeurt er als je hem een foto van een banaan geeft? Of een stoel?
Omdat de robot zo zeker van zijn zaak is, denkt hij misschien: "Oh, dit is een rare, gele appel!" en geeft hij een antwoord alsof hij het zeker weet. In de echte wereld is dit gevaarlijk. Als een zelfrijdende auto denkt dat een plastic zak een steen is, kan dat leiden tot ongelukken.
Dit probleem heet Out-of-Distribution (OOD) detectie: het vermogen van een AI om te zeggen: "Ik ken dit niet, ik durf dit niet te voorspellen."
Het probleem met de oude methode
De auteurs van dit paper kijken naar een bestaande techniek genaamd LogitNorm. Je kunt je dit voorstellen als een "drukker" op de knop van de robot. Als de robot te zeker wordt (bijvoorbeeld 99,9% zekerheid over een banaan), drukt LogitNorm die zekerheid iets naar beneden, zodat hij minder arrogant wordt.
Maar er zit een groot nadeel aan deze oude methode:
Stel je voor dat je de robot dwingt om alle appels heel dicht bij elkaar te houden in zijn hoofd (in zijn "geheugenruimte"). Door ze zo dicht bij elkaar te duwen, beginnen de appels op elkaar te lijken alsof ze allemaal in één klein hoekje zitten.
- Het gevolg: De robot verliest het onderscheid tussen de verschillende soorten appels (hij wordt minder goed in het herkennen van echte appels) en hij raakt in de war als hij iets vreemds ziet, omdat alles in dat ene hoekje nu ook vreemd lijkt. Het is alsof je alle boeken in een bibliotheek in één kast duwt; je vindt ze sneller, maar je kunt ze niet meer goed vinden.
De nieuwe oplossing: ELogitNorm
De auteurs van dit paper hebben een nieuwe, slimme manier bedacht om de robot te trainen, genaamd ELogitNorm.
In plaats van de robot te dwingen om alles naar één centraal punt (het midden van de kast) te duwen, leren ze de robot om te kijken naar de randen van de kast.
De analogie van de muur:
Stel je voor dat elke soort appel (rood, groen, geel) zijn eigen kamer heeft in een groot huis.
- De oude methode (LogitNorm) probeerde alle appels naar het midden van het huis te duwen. Daardoor raakten ze de muren kwijt en wisten ze niet meer waar de grens was.
- De nieuwe methode (ELogitNorm) leert de robot om precies te weten waar de muren (de grenzen) tussen de kamers zitten.
Wanneer de robot een nieuwe foto ziet, kijkt hij niet alleen naar hoe dicht hij bij een bekende appel zit, maar vooral naar hoe ver hij van de muur af staat.
- Als hij ver van de muur staat, zegt hij: "Ik weet zeker dat dit een rode appel is."
- Als hij vlak bij de muur staat (of zelfs de muur raakt), zegt hij: "Hé, dit is raar. Dit zou een groene appel kunnen zijn, of misschien wel een banaan. Ik weet het niet zeker."
Waarom is dit zo goed?
- Geen "Feature Collapse": De robot houdt zijn geheugenruimte groot en overzichtelijk. De verschillende appels blijven goed gescheiden, dus hij wordt niet minder slim in het herkennen van echte appels.
- Beter herkennen van vreemds: Omdat de robot precies weet waar de grenzen liggen, voelt hij zich onzeker zodra hij iets ziet dat die grenzen overstijgt. Hij zegt dan direct: "Ik ken dit niet!" in plaats van een verkeerd antwoord te geven.
- Geen ingewikkelde instellingen: De nieuwe methode werkt vanzelf. De ontwikkelaars hoeven geen lastige knoppen te draaien of extra data te verzamelen. Het is een "plug-and-play" oplossing.
De resultaten
In hun experimenten hebben ze getest met verschillende soorten robots (neural networks) en verschillende datasets (van kleine foto's tot grote foto's van ImageNet).
- Resultaat: De robots met de nieuwe methode (ELogitNorm) waren niet alleen beter in het herkennen van vreemde objecten (banaan, stoel, etc.), maar ze waren ook nog steeds net zo goed in het herkennen van de echte appels.
- Ze overtroffen zelfs de beste bestaande methoden, vooral bij objecten die heel erg leken op de echte data (zoals een groene appel die op een groene peer lijkt).
Conclusie
Kortom: De auteurs hebben een manier gevonden om AI-modellen te trainen zodat ze niet alleen slim zijn, maar ook bescheiden. Ze leren de AI om te weten wat ze niet weten. Door de "grenzen" in het geheugen van de AI beter te definiëren, voorkomen ze dat de AI zelfverzekerd fouten maakt. Dit maakt AI veiliger en betrouwbaarder voor toepassingen in de echte wereld, zoals medische diagnose of zelfrijdende auto's.
Ontvang papers zoals deze in je inbox
Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.