Defining AI Models and AI Systems: A Framework to Resolve the Boundary Problem

Dit paper presenteert een conceptueel en operationeel raamwerk om de ambiguïteit tussen 'AI-modellen' en 'AI-systemen' op te lossen door respectievelijk gedefinieerd te worden als trainingsparameters met architectuur en als het model plus aanvullende componenten, waarmee de toewijzing van verantwoordelijkheden in de AI-waardeketen voor regelgeving wordt verduidelijkt.

Yuanyuan Sun, Timothy Parker, Lara Gierschmann, Sana Shams, Teo Canmetin, Mathieu Duteil, Rokas Gipiškis, Ze Shen Chin

Gepubliceerd Thu, 12 Ma
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat de wereld van kunstmatige intelligentie (AI) een enorme, drukke bouwplaats is. Op deze bouwplaats werken verschillende mensen: de architecten die de blauwdrukken maken, de aannemers die het gebouw optrekken, en de bewoners die erin gaan wonen.

Het probleem is dat de regels voor wie wat moet doen (zoals veiligheid controleren of aansprakelijk zijn als er iets misgaat), vaak wazig zijn. De wetten zeggen: "De architect is verantwoordelijk voor de blauwdruk, de aannemer voor het gebouw." Maar in de AI-wereld weten we niet precies waar de "blauwdruk" (het AI-model) ophoudt en waar het "gebouw" (het AI-systeem) begint.

Dit nieuwe onderzoek doet precies dat: het probeert die lijn helder te trekken. Hier is hoe het werkt, vertaald naar alledaags taal:

1. Het Verwarring-probleem

Tot nu toe hebben wetenschappers en beleidsmakers (zoals die in de Europese Unie) veel verschillende definities gebruikt. Het is alsof iedereen in de bouw een ander woord gebruikt voor "de muur". Sommigen zeggen dat de muur alleen de bakstenen zijn, anderen zeggen dat de muur ook de verf en de deurposten omvat.

De onderzoekers hebben gekeken naar bijna 900 wetenschappelijke artikelen en tientallen officiële documenten. Ze ontdekten dat veel van deze definities voortkomen uit oude ideeën van de OECD (een internationale organisatie). Het probleem? Die oude ideeën hebben de verwarring niet opgelost, maar juist erger gemaakt. Het is alsof je een kompas hebt dat al een beetje scheef staat, en elke nieuwe kaart die je maakt, maakt de afwijking nog groter.

2. De Oplossing: Een Brood en een Bakkerij

Om dit op te lossen, stellen de auteurs een nieuwe, simpele definitie voor. Ze gebruiken een metafoor die je direct begrijpt:

  • Het AI-model is het recept.
    Stel je voor dat je een meesterbakker bent. Je hebt een perfect recept voor een brood. Dit recept bevat de exacte hoeveelheden bloem, gist, water en de instructies hoe lang je moet bakken. In de AI-wereld is dit het model: het is de "gedachte" of het "brein" dat is getraind. Het bestaat uit de wiskundige regels en de getallen (parameters) die het systeem heeft geleerd. Op zich is dit recept nog geen brood; het is alleen de theorie.

  • Het AI-systeem is de volledige bakkerij.
    Nu heb je dat recept nodig om echt brood te maken. Je hebt een oven nodig, een mixer, een bakplaat, en iemand die het deeg in de oven schuift en het brood er weer uit haalt. Dit is het systeem. Het bevat het recept (het model), maar ook alle extra onderdelen die nodig zijn om het werk te doen: de knoppen waar je op drukt, het scherm waar je het resultaat ziet, en de software die de input (je vraag) omzet in output (het antwoord).

De grens:
Het model is wat het systeem denkt (het recept). Het systeem is hoe het werkt in de echte wereld (de bakkerij met het recept).

3. Waarom maakt dit uit?

Waarom moeten we deze lijn zo nauwkeurig trekken? Omdat het belangrijk is voor de regels en de verantwoordelijkheid.

Stel, er gaat iets mis met een AI die medische diagnoses stelt.

  • Als het recept (het model) fout is (bijvoorbeeld, het heeft geleerd dat een gezonde long er ziek uitziet), dan is de ontwikkelaar van het recept (de "provider") verantwoordelijk.
  • Maar als het recept perfect is, maar de bakkerij (het systeem) slecht werkt omdat de knoppen verkeerd zijn aangesloten of de interface de patiënt verwarrende vragen stelt, dan is de gebruiker of de integrator (de "deployer") verantwoordelijk.

Zonder duidelijke definities weten we niet wie er moet boeten als er een fout optreedt. Is het de schuld van de maker van het brein, of de maker van het lichaam dat het brein draagt?

Conclusie

Deze paper zegt eigenlijk: "Laten we stoppen met ruziën over woorden en beginnen met kijken naar de werkelijkheid."

  • Een AI-model is het getrainde brein (de parameters en het ontwerp).
  • Een AI-systeem is dat brein plus de rest van de machine die het in de praktijk gebruikt.

Door deze scheiding duidelijk te maken, kunnen wetten zoals de Europese AI-wetgeving eindelijk duidelijk zeggen: "Jij bent verantwoordelijk voor het recept, jij voor de bakkerij." Dit maakt het veiliger voor iedereen en zorgt dat er geen gaten in de wetten zitten waar gevaarlijke AI doorheen kan glippen.