The role of team diversity in AI systems development

Deze studie, gebaseerd op interviews met softwareprofessionals in Brazilië en Portugal, concludeert dat teamdiversiteit een cruciale rol speelt bij het identificeren van bias, het bevorderen van empathie en het ondersteunen van inclusieve besluitvorming in de ontwikkeling van AI-systemen.

Ronnie de Souza Santos, Maria Teresa Baldassarre, Cleyton Magalhaes

Gepubliceerd Tue, 10 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een heel slimme robot bouwt. Deze robot moet beslissingen nemen, zoals wie een lening krijgt, welke medicijnen iemand voorgeschreven krijgen, of wie er wordt aangenomen voor een baan.

In het verleden maakten we deze robots vaak met een team dat er allemaal hetzelfde uitzag: dezelfde achtergrond, dezelfde school, dezelfde ervaringen. Het probleem? Die robots leerden van de wereld zoals die specifieke groep die zag. En omdat die groep niet de hele wereld vertegenwoordigde, maakten de robots vaak onbewuste fouten. Ze discrimineerden bijvoorbeeld tegen mensen met een donkere huidskleur of tegen vrouwen, omdat de robot dacht: "Oh, in mijn trainingsdata gebeurt dat meestal zo."

Deze studie, geschreven door Ronnie, Maria en Cleyton, kijkt naar een heel simpel maar krachtig idee: Wat gebeurt er als je de robot bouwt met een team dat er juist heel verschillend uitziet?

Hier is de uitleg, vertaald naar alledaags taal en met een paar creatieve vergelijkingen.

1. Het Probleem: De "Blinde Vlek" van het Team

Stel je voor dat je een kamer bouwt met alleen maar ramen aan de noordkant. Je ziet de zon, de bomen en de vogels aan de noordkant heel goed. Maar aan de zuidkant is het donker, en je ziet niet dat er een boom omvalt of dat iemand vastzit. Dat is wat er gebeurt als een AI-team niet divers is. Ze hebben een "blinde vlek". Ze zien de wereld alleen vanuit hun eigen kijkhoek en missen de problemen die andere mensen wel zien.

2. De Oplossing: Een Team als een "Multiculturele Raad"

De onderzoekers hebben 25 mensen geïnterviewd die werken aan AI-projecten (zoals gezichtsherkenning of vertalingen). Ze ontdekten dat teams met een mix van mensen (verschillende geslachten, etnische achtergronden, leeftijden, en zelfs mensen met een handicap of neurodiversiteit) de robots veel slimmer en eerlijker maken.

Hoe doen ze dat? De studie noemt 6 manieren waarop dit werkt:

  • De "Spiegel" (Verschillende perspectieven):
    Stel je voor dat je een schilderij bekijkt. Als je alleen maar recht voor het schilderij staat, zie je het van één kant. Als je er omheen loopt met mensen die van links, rechts, boven en beneden kijken, zie je pas het hele plaatje. Een divers team ziet de "blinde vlekken" in de data. Een doof teamlid zag bijvoorbeeld dat een ontwerp voor een app niet werkte voor gebarentaal, iets wat een horend team nooit had bedacht.

  • De "Empathie-bril" (Inlevingsvermogen):
    Soms is het lastig om te begrijpen hoe het is om in de schoenen van iemand anders te staan. Als je teamleden hebt die dat wel hebben meegemaakt (bijvoorbeeld discriminatie of een handicap), dragen ze een soort "empathie-bril". Ze kunnen zeggen: "Wacht even, dit ontwerp voelt niet goed voor mij, en dat betekent dat het voor anderen ook niet goed voelt." Ze voelen de pijn van de gebruiker voordat de robot die pijn veroorzaakt.

  • De "Systeem-ontmaskeraar" (Systemische discriminatie):
    Soms zit er een onzichtbare, oude regel in de machine die zegt: "Mensen met een bepaalde achtergrond krijgen minder kansen." Een divers team ziet deze oude, onfaire regels sneller. Ze zeggen: "Wacht, dit is niet toeval, dit is een oud vooroordeel dat we moeten wissen." Ze voorkomen dat de robot de fouten van het verleden herhaalt.

  • De "Beslissings-Comité" (Inclusieve keuzes):
    Als je een team hebt met alleen maar dezelfde mensen, beslissen ze vaak onbewust: "Dit is de normale manier." Een divers team maakt de beslissingen bewuster. Ze vragen: "Voor wie maken we dit? En wie missen we?" Ze zorgen dat de keuzes eerlijk zijn voor iedereen, niet alleen voor de meerderheid.

  • De "Superkrachtige Puzzel" (Complexe problemen oplossen):
    Soms is een probleem zo ingewikkeld dat één brein het niet oplost. Het is alsof je een enorme puzzel hebt. Als iedereen dezelfde puzzelstukken heeft, kom je niet verder. Maar als je mensen hebt met verschillende stukjes (technische kennis, levenservaring, culturele kennis), passen de stukken perfect in elkaar. Ze vinden oplossingen die een homogeen team nooit had bedacht.

  • De "Veiligheidsnet" (Bescherming tegen bias):
    In plaats van dat één persoon (bijvoorbeeld een ethicus) moet controleren of de robot eerlijk is, wordt het een taak voor iedereen in het team. Het is alsof je een veiligheidsnet hebt met honderden draden. Als één draad een gat heeft, vangen de andere draden het op. Een divers team zorgt dat er altijd iemand is die zegt: "Hé, dit voelt niet eerlijk," voordat het systeem live gaat.

3. Waarom is dit belangrijk?

De onderzoekers zeggen dat technologie niet neutraal is. Het is gemaakt door mensen. Als die mensen allemaal hetzelfde denken, wordt de technologie ook hetzelfde (en vaak onrechtvaardig).

Door teams divers te maken, bouwen we niet alleen betere robots, maar ook een eerlijkere wereld. Het is als het bouwen van een huis: als je een huis bouwt voor iedereen, moet je ook mensen uitnodigen die in rolstoelen zitten, die blind zijn, of die een andere taal spreken, om mee te denken over de deurklinken, de trappen en de ramen.

Kortom:
Diversiteit is niet alleen een "nice-to-have" of een politiek statement. Het is een praktisch gereedschap. Het is de beste manier om ervoor te zorgen dat onze slimme machines niet per ongeluk onrechtvaardig worden. Een divers team is als een superkrachtige bril die de onzichtbare fouten in de code laat zien, zodat we ze kunnen oplossen voordat de robot de wereld in gaat.