DLEBench: Evaluating Small-scale Object Editing Ability for Instruction-based Image Editing Model

Dit paper introduceert DLEBench, de eerste benchmark die specifiek is ontworpen om de vaardigheid van instructiegebaseerde beeldbewerkingsmodellen te evalueren bij het bewerken van kleine objecten, waarbij een nieuw evaluatieprotocol wordt voorgesteld om de huidige prestatiekloof op dit gebied in kaart te brengen.

Shibo Hong, Boxian Ai, Jun Kuang, Wei Wang, FengJiao Chen, Zhongyuan Peng, Chenhao Huang, Yixin Cao

Gepubliceerd 2026-03-02
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een digitale schilder bent die een opdracht krijgt om een klein detail in een groot schilderij te veranderen. Misschien moet je de sjaal van een figuurtje in de verte van rood naar geel veranderen, of een klein bordje met tekst aanpassen.

Vroeger waren de kunstenaars (de AI-modellen) geweldig in het schilderen van grote dingen, zoals een hele auto of een persoon. Maar als je ze vroeg om iets heel kleins te doen, faalden ze vaak. Ze zagen het kleine object niet, veranderden de verkeerde persoon, of maakten het hele schilderij onherkenbaar.

Deze paper introduceert een nieuwe manier om te kijken of deze digitale kunstenaars nu eindelijk goed kunnen schilderen aan de hand van een nieuwe test en een slimmer beoordelingssysteem.

Hier is de uitleg in simpele taal:

1. Het Probleem: De "Kleine Vlieg" in de Kamer

Tot nu toe waren de tests voor beeldbewerkings-AI's gericht op grote objecten. Het was alsof je een schilder testte door te vragen: "Verander de auto in de voorgrond." Dat ging vaak goed.
Maar in het echte leven zijn de moeilijkste taken vaak klein: "Verander de kleur van de horlogeband" of "Verwijder de vlieg op de neus van de man."
De auteurs zeggen: "De huidige AI's zijn als schilders die een vergrootglas nodig hebben om een vlieg te zien. Zonder dat zien ze het niet, of ze veranderen per ongeluk de hele neus van de man."

2. De Oplossing: DLEBench (De "Kleintjes-Test")

De onderzoekers hebben een nieuwe testbank gemaakt, genaamd DLEBench.

  • Wat is het? Een verzameling van bijna 1.900 voorbeelden.
  • Het unieke: In al deze voorbeelden is het object dat je moet veranderen heel klein (minder dan 10% van het hele plaatje).
  • Hoe maakten ze het? Ze namen bestaande vragen over kleine objecten (bijvoorbeeld: "Wat is de kleur van de sjaal?") en draaiden ze om in een opdracht: "Verander de sjaal van rood naar geel."
  • De moeilijkheidsgraad: Het is net als een zoektocht naar een speld in een hooiberg, waarbij je die speld ook nog eens moet vervangen zonder de rest van het hooi aan te raken.

3. Het Beoordelingssysteem: Waarom een computer niet genoeg is

Als je vraagt aan een andere AI (een "rechter-AI") om te kijken of de opdracht goed is uitgevoerd, faalt die vaak ook.

  • Het probleem: Een AI-rechter kijkt vaak naar het hele plaatje en ziet de kleine verandering niet. Het is alsof je vraagt aan iemand om te kijken of er een stofje op een tafel ligt, terwijl die persoon door een verrekijker naar de horizon kijkt.
  • De nieuwe methode: De auteurs hebben twee slimme manieren bedacht om dit op te lossen:
    1. De "Tool-driven" manier (De gereedschapskist): De AI-rechter krijgt niet alleen een plaatje, maar ook digitale gereedschappen. Hij kan een "zoom-in" gebruiken om heel dichtbij het kleine object te kijken, of een "verschil-detector" die precies laat zien wat er is veranderd. Het is alsof je de rechter een vergrootglas en een liniaal geeft.
    2. De "Oracle-guided" manier (De magische masker): Hierbij wordt het kleine object dat je moet veranderen alvast uitgesneden en vergroot. De AI-rechter hoeft dan niet te zoeken; hij kijkt alleen naar het object. Voor het controleren van de rest van het plaatje wordt het object juist afgedekt met een witte doek, zodat de AI alleen naar de achtergrond kijkt en niet afgeleid wordt.

4. Wat hebben ze ontdekt?

Toen ze 10 verschillende AI-modellen op deze nieuwe test lieten werken, was het resultaat verbluffend:

  • Ze zijn nog niet zo goed: Zelfs de beste modellen faalden vaak. Ze zagen het kleine object niet (lokalisatie-fout) of veranderden het verkeerde ding.
  • De "Grote" modellen zijn niet altijd de beste: Soms deed een open-source model het beter dan een dure, gesloten model.
  • Het gevaar van "Over-actief": Veel modellen veranderden wel het juiste ding, maar maakten het erger. Ze veranderden bijvoorbeeld de kleur van de sjaal, maar maakten ook de stofstructuur kapot of veranderden de persoon erachter.

Conclusie: Waarom is dit belangrijk?

Deze paper zegt eigenlijk: "We moeten stoppen met alleen kijken of AI's grote dingen kunnen veranderen. Als we AI echt slim willen maken voor details, moeten we ze testen op de kleine dingen."

Het is alsof we eindelijk een rijexamen hebben voor een auto die niet alleen op de snelweg moet kunnen rijden, maar ook moet kunnen parkeren in een hele smalle steegje zonder de burenauto aan te raken. Zonder deze test weten we niet of de auto (of de AI) echt klaar is voor de echte wereld.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →