Een AI-gereedschapskist voor verborgen vooroordelen in politie-algoritmes
Robeer deed zijn onderzoek bij het Nationaal Politielab AI en was tijdens zijn PhD zowel in dienst bij de politie als bij de universiteit. De informaticus verdedigt op 14 november zijn proefschrift getiteld: Beyond Trust: A Causal Approach to Explainable AI in Law Enforcement.
Kunstmatige intelligentie krijgt een steeds grotere rol bij beslissingen in belangrijke situaties, zoals bij de politie of in de rechtspraak. AI kan enorme hoeveelheden data analyseren, maar het is vaak onduidelijk waarom een model bepaalde keuzes maakt. Als er in het model verborgen vooroordelen zitten, kan dit leiden tot oneerlijke of verkeerde beslissingen, omdat het systeem patronen herkent die er in werkelijkheid niet zijn.
Om dit ‘black-box’-karakter van AI te verkleinen, is er steeds meer aandacht voor uitlegbare AI. Explainable AI (XAI) probeert uit te leggen hoe AI tot bepaalde conclusies komt. Maar volgens Robeer is die uitleg vaak niet diepgaand genoeg. “Uitlegbare AI laat vaak alleen zien welke verbanden er zijn, maar legt niet uit waarom die verbanden gevonden zijn. Juist in een context waarbij bewijs en verantwoording belangrijk zijn, zoals bij de politie, kun je niet blind vertrouwen op AI-aanbevelingen. Als je bewijslast via AI uit bepaalde data haalt, dan wil je wel dat het vervolgens bij de rechter standhoudt.”
[....]