Community-Informed AI Models for Police Accountability

Dit artikel presenteert een gemeenschapsgeoriënteerde aanpak voor het ontwikkelen van multi-perspectief AI-tools ter verbetering van de politie- en overheidsverantwoording, geïllustreerd aan de hand van een multidisciplinair onderzoek naar het analyseren van bodycam-beelden van verkeerscontroles door de politie van Los Angeles.

Benjamin A. T. Grahama, Lauren Brown, Georgios Chochlakis, Morteza Dehghani, Raquel Delerme, Brittany Friedman, Ellie Graeden, Preni Golazizian, Rajat Hebbar, Parsa Hejabi, Aditya Kommineni, Mayagüez Salinas, Michael Sierra-Arévalo, Jackson Trager, Nicholas Weller, Shrikanth Narayanan

Gepubliceerd Fri, 13 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

🚓 De "Rechtvaardige Robot" voor Politiecontroles

Een samenvatting van het onderzoek "Community-Informed AI Models for Police Accountability"

Stel je voor dat de politie in Los Angeles duizenden video's heeft van verkeerscontroles, vastgelegd door camera's op hun uniformen (bodycams). Deze video's zijn als een enorme berg ongeschreven boeken. Ze vertellen verhalen over hoe politieagenten met burgers omgaan, maar niemand heeft de tijd om ze allemaal te lezen.

Hier komt kunstmatige intelligentie (AI) om de hoek kijken. De wetenschappers in dit artikel willen een slimme computer bouwen die deze video's kan bekijken en beoordelen: "Was deze agent beleefd? Was deze controle eerlijk?"

Maar er zit een groot probleem in: Wie bepaalt wat "beleefd" of "eerlijk" is?

1. Het Probleem: De "Enige Waarheid" is een Mythe

Stel je voor dat je een film bekijkt met je familie.

  • Je vader (die vroeger agent was) denkt: "Die agent was streng, maar dat was nodig voor de veiligheid."
  • Je zus (die zich vaak bang voelt bij de politie) denkt: "Die agent was te agressief en schreeuwde."
  • Je oom (die gewoon een boete wil) denkt: "Het was een saaie controle, gewoon een ticket."

Als je een computer traint om de film te beoordelen, en je gebruikt alleen de mening van je vader als "de waarheid", dan zal de computer denken dat strengheid goed is. Maar dat is niet eerlijk voor je zus.

In het verleden hebben AI-systemen vaak geprobeerd om één enkele "wederzijdse waarheid" te vinden (bijvoorbeeld: "De agent deed het goed" of "De agent deed het fout"). Dit artikel zegt: Nee, dat werkt niet. In de wereld van politie en burgers zijn meningen vaak verschillend, en dat is normaal. Een goede AI moet alle deze verschillende brilglazen kunnen zien, niet alleen één.

2. De Oplossing: De "Diverse Jury"

De auteurs (een mix van computerwetenschappers, sociologen en politologen) hebben een nieuwe manier bedacht om deze AI te bouwen. Ze noemen het "Community-Informed" (door de gemeenschap ingelicht).

In plaats van alleen computerexperts, hebben ze een diverse jury samengesteld om de video's te beoordelen. Deze jury bestaat uit:

  • Voormalige agenten.
  • Mensen die ooit gearresteerd zijn.
  • Mensen uit verschillende etnische groepen (zwart, latina, blank).
  • Mensen van verschillende leeftijden en geslachten.

De Analogie van de Smaaktest:
Stel je voor dat je een nieuwe soep wilt maken. Als je alleen koks vraagt om te proeven, zeggen ze misschien: "Het is perfect, het is hartig genoeg voor een kookboek." Maar als je ook mensen vraagt die hongerig zijn, mensen die allergisch zijn voor kruiden, en mensen die van mildere smaken houden, krijg je een veel completer beeld.

Deze "soep" (de AI) moet smaken voor iedereen, niet alleen voor de koks (de politie).

3. Wat hebben ze ontdekt?

Toen ze de video's lieten beoordelen door deze diverse groep, zagen ze iets fascinerends:

  • Voor objectieve dingen (bijvoorbeeld: "Is er gezocht in de auto?") waren alle juryleden het eens. Dat is makkelijk voor een computer.
  • Voor subjectieve dingen (bijvoorbeeld: "Voelde de bestuurder zich bedreigd?" of "Was de agent respectvol?") hadden mensen heel verschillende meningen.

Het belangrijkste inzicht:
Voor een zwarte man kan een agent die lacht en vriendelijk is, een teken zijn van veiligheid en respect. Voor een blanke vrouw kan dezelfde vriendelijke lach gewoon "vriendelijk" zijn, maar niet noodzakelijk een teken van veiligheid.
Als de AI alleen leert van de ene groep, zal hij de angst van de andere groep nooit begrijpen.

4. Hoe werkt het in de praktijk?

Het team heeft een proces bedacht dat eruitziet als een groot, gezamenlijk schilderij:

  1. Luisteren: Ze hebben eerst met honderden mensen gepraat (enquêtes, gesprekken) om te vragen: "Wat vinden jullie belangrijk bij een politiecontrole?"
  2. De Diverse Jury: Ze hebben mensen uit de hele stad Los Angeles ingehuurd om video's te bekijken. Ze hebben ze niet opgeleid om " dezelfden" te denken, maar om hun eigen eerlijke mening te geven.
  3. De Slimme Computer: De AI leert niet van één antwoord, maar van de verschillen in de antwoorden. De computer leert: "Oké, voor groep A is dit gedrag respectvol, maar voor groep B voelt het intimiderend."
  4. Het Resultaat: Een AI die niet zegt "Goed" of "Slecht", maar een rapport geeft dat zegt: "Deze agent was volgens de meeste mensen beleefd, maar voor mensen met een achtergrond van arrestaties voelde het toch onveilig."

5. Waarom is dit belangrijk?

Politieagenten hebben enorme macht. Ze kunnen beslissingen nemen die levens veranderen. Als we AI gebruiken om hen te controleren, moeten we ervoor zorgen dat die AI voor ons allemaal werkt, en niet alleen voor de politie of voor de rijken.

Als we dit niet doen, bouwen we een robot die de bestaande vooroordelen alleen maar versterkt. Door sociologen en mensen uit de gemeenschap bij het proces te betrekken, zorgen we dat de technologie democratisch is. Het is alsof we zorgen dat de robot-rechter niet alleen luistert naar de advocaat, maar ook naar de burger.

Conclusie in één zin

Om eerlijke AI te bouwen voor de politie, moeten we stoppen met zoeken naar één "wederzijdse waarheid" en in plaats daarvan een diverse jury laten oordelen, zodat de computer begrijpt dat wat voor de één veilig voelt, voor de ander misschien eng is.