De politie van Durham begint met het testen van een Artificial Intelligence app HART – Harm Assessment Risk Tool – om te helpen in beslissingen over het verlaten van verdachten of ze in hechtenis te houden. Het systeem bevat tot 5 jaar aan data en geeft middels een kansberekening een score: lage, middelmatige of hoge kans op recidive.

Het systeem is al in 2013 getest en de resultaten zijn?vergeleken met wat er in de twee jaren daarna gebeurde. Ze vonden dat HART zeer goed gewerkt had voor de groep van lage risico’s, met een score van?98% van de tijd goed, en een score van 88% voor het juist berekenen van de categoriegroep (laag, middel of hoog).

Niet slecht voor een?computer. Een externe deskundige geeft aan dat het gereedschap nuttig kan zijn, maar dat het risico erin sluipt dat het zelfstandig beslissingen zou kunnen gaan maken. Tijdens de proefperiode werd de nauwkeurigheid van het HART algoritme gecontroleerd, maar het heeft geen beslissingen genomen die anders door de politie genomen zou zijn, zegt Sheena Urwin, hoofd van het strafrechtelijke Durham Constabulary. “Ik zie een systeem voor me dat de komende twee tot drie maanden de besluitvorming van officieren kan ondersteunen,” vertelde ze aan de BBC.

Prof. Lawrence Sherman, werkzaam aan de Universiteit van Cambridge, was betrokken bij de ontwikkeling van het instrument. Hij stelt voor dat HART in verschillende gevallen gebruikt zou kunnen worden, zoals bij beslissingen over of iemand een paar extra uur in hechtenis moet blijven; Of bijvoorbeeld voor een aanklacht op borgtocht kan worden vrijgelaten; Of, nadat een heffing is opgelegd, deze in bewaring moet worden overgedragen. “Het is tijd om het echt te gaan gebruiken en een goed experiment is de beste manier,” vertelde hij aan de BBC.

Tijdens het aanstaande experiment zullen officieren toegang krijgen tot het systeem in een willekeurige selectie van zaken, zodat de impact ervan kan worden vergeleken met wat er gebeurt wanneer dat niet het geval is.

Vooroordelen?

Vorig jaar publiceerde de Amerikaanse website ProPublica een onderzoek naar een algoritme dat door autoriteiten wordt gebruikt om de kans te voorspellen dat een arrestant een toekomstige misdaad begaat. Het onderzoek stelde dat?het algoritme raciale vooroordelen versterkt, en ook overdreven negatieve voorspellingen over zwarte versus witte verdachten maakte – hoewel de firma achter de technologie de bevindingen van ProPublica betwist.

“Tot op zekere hoogte doen leermodellen de verborgen en stilzwijgende aannames die door mensen zijn gemaakt,” waarschuwde prof Cary Coglianese, een politieke wetenschapper aan de Universiteit van Pennsylvania, die algoritmische besluitvorming heeft bestudeerd. “Dit zijn erg lastige [machine learning] modellen en het is lastig te beoordelen in hoeverre ze echt discriminerend zijn.” Het Durham-systeem bevat bijvoorbeeld ook gegevens over de postcode en het geslacht van de arrestant bijvoorbeeld. De makers van het systeem verzekeren echter dat slechts een postcode niet tot een uitslag kan leiden, en dat het systeem slechts een advies geeft. Ook een zgn. ‘audit trail’, waarin wordt bekeken hoe het systeem bij een bepaald besluit kwam, zal later nodig zijn, en de werking zal dan toegankelijk moeten zijn, aldus prof Sherman. Dr Helen Ryan, rechtsgeleerde bij de?Universiteit van Winchester, geeft aan dat ze HART “ongelooflijk interessant” vindt en dat er een enorm potentieel ligt om te kunnen profiteren mocht er een uitgebreiding van de pilot komen. “Ik denk dat het eigenlijk een zeer positieve ontwikkeling is,” voegt ze eraan toe. “Ik denk dat, potentieel, machines kunnen veel nauwkeuriger zijn – gegeven de juiste data – dan mensen.”

Bronnen: Gizmodo,?BBC

Gerelateerde berichten:

Tagged with →  

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *