Onderstaand artikel van Kaya Bouma is eerder gepubliceerd in De Groene Amsterdammer
‘Kijk me aan!’ Howard Marks, de man die net nog op het punt stond zijn vrouw en haar minnaar te lijf te gaan met de keukenschaar, ligt gevangen in de houdgreep van een politieagent. Het is exact vier minuten over acht ’s morgens. De vloer is bezaaid met glas. ‘Mr. Marks, bij volmacht van de afdeling PreCrime van Washington D.C. arresteer ik u voor de toekomstige moord op mrs. Marks en mr. Dubin, die vanmorgen plaats zou vinden om vier minuten over acht.’
We schrijven het jaar 2054. Misdaad bestaat niet meer. Drie helderzienden op sterk water, gekoppeld aan een ingenieus computersysteem, voorspellen wie wanneer een moord gaat plegen. Aan politieagent en protagonist Tom Cruise de taak om de criminelen in spe in de kraag te vatten v??r ze de fout in gaan. ‘Is er eigenlijk wel sprake van moord als de daad zelf niet gepleegd is?’ vraagt Colin Farrell in de hoedanigheid van kritisch inspecteur. ‘Het feit dat je iets voorkomt wil niet zeggen dat het niet zou gebeuren wanneer je niet had ingegrepen’, kaatst Cruise terug. Kort daarna rolt de politieagent zelf als toekomstig moordenaar uit het systeem en heeft hij een groot probleem.
Steven Spielbergs Minority Report gaat wellicht niet de geschiedenis in als zijn grootste meesterwerk, maar de film uit 2002 haalt nog zeker wekelijks het nieuws. Zodra het over iets nieuws en futuristisch gaat, gaat het over Tom Cruise en zijn drie telepaten in een badkuip. Meestal is dat niet in positieve zin. De actiefilm geldt voor velen als schrikbeeld van een toekomst waarin privacy non-existent is en de politie in de hoofden van burgers kruipt. Des te opvallender dat het omgekeerde geluid ook steeds vaker te horen is: veiligheidsorganisaties mogen graag naar de film verwijzen als inspiratiebron voor het optuigen van een vergelijkbaar voorspellend systeem – minus de helderzienden weliswaar.
Predictive policing heet dat: het voorspellen van misdaad op basis van grote hoeveel?heden data. En dat is niet iets van een verre toekomst. Politiekorpsen overal ter wereld, inclusief Nederland, maken er al gebruik van.
De kristallen bol is de misdaadbestrijding binnengedrongen. Daarbij wordt de blik steeds verder op de toekomst gericht. De allernieuwste ontwikkeling: preventief straffen. De Amerikaanse staat Pennsylvania werkt momenteel aan een systeem dat rechters helpt bij het bepalen van de strafmaat. Op basis van onder meer iemands criminele verleden (eerdere arrestaties en veroordelingen), geslacht, leeftijd en postcode wordt een voorspelling gedaan over zijn toekomstige wandaden. Is de kans statistisch gezien groot dat een dader ooit opnieuw een vergrijp pleegt, dan kan hij bij voorbaat extra zwaar gestraft worden. Andersom kan een dader aan wie een hemelsblauwe toekomst wordt toegedicht strafvermindering krijgen.
De techniek voor dit soort orakelwerk is al ruimschoots voorhanden. Grote techbedrijven buitelen de laatste jaren over elkaar heen in een wedloop van voorspellende software, waarbij de mogelijkheden duizelingwekkende proporties aannemen. Zo belooft IBM?politiekorpsen preventief naar de crime scene te leiden. In een bijbehorend reclamefilmpje staat een politieagent op z’n dooie gemak, koffie erbij, een overvaller op te wachten die op het punt staat toe te slaan.
Het Amerikaanse veiligheidsbedrijf Intrado ontwikkelde Beware, een systeem dat op basis van onder andere iemands adres, uitingen op sociale media en een eventueel strafblad voorspelt hoe groot de kans is dat hij een misdaad begaat. Een 42-jarige Afghanistanveteraan met PTSS?en een strafblad, die op Facebook schrijft over zijn oorlogservaringen? Het levert een dreigingsscore op van 67 van de 100 punten. Microsoft werkt aan een programma dat niet alleen criminaliteit van ver kan zien aankomen, maar ook van elke individuele gevangene kan voorspellen hoe groot de kans is dat hij of zij, eenmaal op vrije voeten, opnieuw de fout in zal gaan.
Politiekorpsen zijn er blij mee. In onder andere de Verenigde Staten, China, Brazili?, het Verenigd Koninkrijk, Duitsland, Zwitserland en Belgi? wordt met predictive policing gewerkt. Amerika loopt voorop: minstens zestig steden gebruiken een of meer vormen van voorspellende software. ‘Minority Report uit 2002 is de realiteit van vandaag‘, zei William Bratton, hoofd van de politie in New York, vorig jaar tijdens een debatavond over big data en veiligheid.
In Nederland neemt predictive policing ook ‘een enorme vlucht’, schrijven onderzoekers van TNO?in een recente publicatie over het onderwerp. Zo heeft de politie een systeem ontwikkeld dat inbraak en straatroof kan voorspellen. In samenwerking met de Universiteit Twente is informatiegestuurde luchtsteun opgezet: politiehelikopters vliegen preventief naar plekken waar high impact crime als overvallen en inbraken verwacht wordt. De politie werkt ook samen met commerci?le aanbieders van voorspellende software, maar noemt geen namen.
Volgens oud-politiemedewerker Rutger Rienks behoort Nederland internationaal tot de voorhoede. Als afdelingshoofd business intelligence bij de politie was Rienks de afgelopen jaren betrokken bij de eerste stappen naar voorspellend politiewerk. ‘Als je als overheids- of politieorganisatie criminaliteit op deze manier kunt uitbannen, dan lijkt mij dat een droom waar je je hard voor moet maken.’
Het is een omstreden droom. De Nationale Politie kreeg in oktober een Big Brother Award uitgereikt vanwege haar activiteiten rondom predictive policing. Met de prijs zet privacy-voorvechter Bits of Freedom jaarlijks ‘de grofste privacy-schenders’ in de schijnwerpers. Uit het juryrapport: ‘De politie van de toekomst houdt iedere burger non-stop en nauwlettend in de gaten. Daar zijn ze nu al mee begonnen.’ Criminoloog Marc Schuilenburg waarschuwt voor een politie die al te diep in de kristallen bol probeert te kijken: ‘Het gevaar is dat je uitkomt bij een gedachtenpolitie die steeds meer in de stoel van de psychiater gaat zitten en probeert criminele intentie te lezen in bepaald gedrag.’
Ook onderzoekers die zelf met voorspellings?modellen werken zijn kritisch. ‘Wij krijgen wel eens de vraag of we niet met heel evil technologie bezig zijn’, zegt Arnout de Vries. Als onderzoeker bij TNO?werkt hij aan verschillende experimenten rond predictive policing. ‘Misschien is dat wel zo, ja. Maar als je als overheid stil blijft staan en denkt: we houden deze enge technologie liever buiten de deur word je links en rechts door bedrijven ingehaald en sta je nergens. Je ziet politiewerk nu al privatiseren.’
In de VS ligt predictive policing al langer onder vuur. Tegenstanders waarschuwen behalve voor privacy-schending voor de groeiende macht van bedrijven die dit soort veiligheidssystemen aanbieden. De techniek zou bovendien leiden tot etnisch profileren, omdat de voorspellingen vooroordelen in de gebruikte data reflecteren.
Een alomtegenwoordige gedachtenpolitie, nog racistisch ook. Het klinkt nogal onheilspellend. Maar is het dat ook? Er is in Nederland nog weinig bekend over predictive policing. De politie geeft maar mondjesmaat informatie prijs. Wat gebeurt er al? Hoe werkt het precies? En wat kunnen we ervan verwachten?
Mark Jules klapt zijn laptop open en weet wat de toekomst in petto heeft. Jules is vice-president Public Safety Visualization bij multinational Hitachi en zodoende binnen de multinational de man met de glazen bol. Hij is vanmorgen overgevlogen uit Philadelphia en zit nu, zonnebril nog in het schouderlange stroblonde haar, in de bedrijfskantine van Hitachi Data Systems in Zaltbommel. Jules is in Nederland om te praten met ‘ge?nteresseerde partijen’ over de predictive-policingsoftware die het bedrijf sinds kort aanbiedt.
‘Even kijken’, hij zoomt in op de kaart van Washington D.C. en beweegt met zijn muis langs een rijtje delicten: diefstal, fraude, gewelddadige overvallen. De keuze valt op ‘sex crimes’. De kaart van de Amerikaanse hoofdstad, in rasters opgedeeld, kleurt hier en daar donkerrood. In die dieprode vierkantjes, elk goed voor twee huizenblokken, gaat het de komende 24 uur gebeuren. Om erachter te komen wat precies klikt Jules op een van de gekleurde vierkantjes. ‘In dit blok is de kans op een zedendelict vandaag 47 procent.’ Het is dat dit een demo-versie is, zegt Jules, anders kon hij per adres een gedetailleerde voorspelling geven.
Dit is predictive policing in de praktijk: een zo precies mogelijke kansberekening, uitgezet op een kaart. Buienradar, maar dan voor boeven. Het systeem van Hitachi is exemplarisch voor de meeste vormen van voorspellende software. Vertrekpunt: een flinke berg data van een stad of buurt. Historische criminaliteitscijfers, sociaal-geografische informatie over inwoners, adressen van bekende overtreders, data afkomstig van sociale media, het weer, het nieuws. Hoe meer hoe beter, liefst gecombineerd met een netwerk van slimme camera’s die in staat zijn gezichten te herkennen en geluidssensoren die geweerschoten detecteren. Zelflerende algoritmes zoeken vervolgens naar patronen. Blijkt er als het regent stelselmatig minder te worden ingebroken, dan wordt die informatie meegenomen in een voorspelling.
‘Ons systeem vindt correlaties die je als mens nooit gezien zou hebben’, zegt Jules. ‘In een van de steden waar wij werken blijkt rond fietsenrekken meer criminaliteit gepleegd te worden. Geen flauw idee waarom dat zo is. Maar zolang het een betrouwbare voorspelling oplevert, zijn wij tevreden.’ Een voorspelling van Hitachi komt volgens Jules in ongeveer 75 procent van de gevallen uit. ‘Dat is vijftien procent beter dan de meeste andere voorspellingsproducten.’ Of dat waar is, valt niet te controleren. Onafhankelijk onderzoek naar verschillende predictive systemen is nog niet gedaan.
Wordt er in Nederland al met de voorspellende software van Hitachi gewerkt? vraag ik.
‘Nee’, zegt Jules. ‘We werken alleen in de VS.’
‘Jawel hoor’, zegt persvoorlichter Bastiaan van Amstel even later, als Jules door is naar zijn volgende afspraak. ‘We mogen alleen niet alles zeggen. Niet alle partijen voor wie wij werken willen publiekelijk bekendmaken dat ze hiermee bezig zijn.’ Volgens de persvoorlichter zegt Jules daarom voor alle zekerheid niks. ‘Maar ik kan je vertellen dat deze software al op meerdere plekken in Nederland wordt uitgeprobeerd.’ Waar precies? Op hoeveel plekken? En voor wie?
‘Het aantal pilots is op ??n hand te tellen’, zegt Van Amstel. ‘We werken nog niet voor private bedrijven, het gaat om overheidspartijen.’ Met een mysterieuze glimlach: ‘Meer kan ik ?cht niet zeggen.’ Het is typerend voor het onderwerp. Predictive policing is in Nederland in nevelen gehuld. De politie maakt niet bekend met welke commerci?le instellingen wordt samen?gewerkt. Bedrijven kunnen op hun beurt vanwege geheimhoudingsovereenkomsten niet zeggen aan wie ze hun diensten verkopen.
Volgens de Amsterdamse korpschef Pieter-Jaap Aalbersberg moet het debat over predictive policing in alle openheid worden gevoerd. ‘Stel dat wij huiselijk geweld jegens kinderen kunnen voorspellen’, zei hij in oktober bij de uitreiking van de Big Brother Award. ‘Willen we dat? Het dilemma van het kind dat klappen krijgt tegen de methodiek die erachter zit. Dit zijn de debatten waar wij als politie zelf ook mee worstelen.’ Daarom is maatschappelijke discussie over het onderwerp ook zo belangrijk, zegt de korpschef. ‘Het gaat om openheid, want zonder maatschappelijk debat en democratisch besluit ben je niet een democratische samenleving.’
Toch wijst de politie meerdere interview?verzoeken af. Dat is niet uit onwil, zegt een persvoorlichter. ‘Het is nog te vroeg om naar buiten te treden. We zijn momenteel een belangrijke pilot rond predictive policing aan het afronden.’ Pas als er duidelijke cijfers en definitieve plannen zijn, is het tijd voor de pers. Om dezelfde reden wil de politie niet zeggen welke projecten er al lopen of hoeveel er al in wordt ge?nvesteerd.
Toch valt er op basis van gesprekken met betrokkenen en publicaties die recent over het onderwerp zijn verschenen een beeld te vormen van wat er al gebeurt. De politie werkt, zo blijkt, aan minstens acht projecten rond predictive policing. Daarbij gaat het deels om pilots en deels om systemen met voorspelcapaciteiten die al in gebruik werden genomen voor de bijbehorende allitererende modeterm kwam overwaaien uit de VS. De politie opereert zowel zelfstandig als met hulp van buitenaf. Zo wordt er bijvoorbeeld samengewerkt met TNO, dat ook voor de AIVD?en MIVD?de mogelijkheden van voorspellingen op basis van big data verkent.
Een rondgang langs grote spelers levert een rijtje bedrijven op die in Nederland al actief zijn. Zo is volgens een woordvoerder behalve Hitachi ook IBM, een van de marktleiders in de voorspellingsindustrie, ‘betrokken’ bij predictive-?policingprojecten. ‘We kunnen geen uitspraken doen over welke korpsen of over de aard van de projecten.’ Zakelijk dienstverlener Deloitte heeft net een pilot voor de politie afgerond, vertelt medewerker Maurice Fransen. ‘We hebben een soort buienradarkaart van Nederland gemaakt, waarmee je twee weken vooruit kunt zien in welke wijk we inbraken kunnen verwachten.’ De politie wil het model volgens hem ook inzetten voor andere vormen van criminaliteit.
Ook het Franse consultancybedrijf Cap?gemini werkt aan voorspellende projecten, valt af te leiden uit de Nationale Innovatieagenda Veiligheid 2015. Daarin wordt het ‘herkennen en voorspellen van afwijkend gedrag’ een landelijk innovatiespeerpunt genoemd. Cap?gemini gaat een voortrekkersrol vervullen, staat te lezen. Wat dat in de praktijk betekent wil het bedrijf niet zeggen. ‘Vraag maar na bij de politie.’
Met kop en schouders het opvallendste initiatief is de samenwerking met de Nederlandse start-up Pandora Intelligence uit het Gelderse Elst. Mede-oprichter Peter de Kock, ooit filmmaker en nu recherchekundige bij de politie, deed een paar jaar geleden promotieonderzoek naar het voorspellen van terrorisme en kwam met een onorthodoxe aanpak. De Kock legde een database aan van zo’n tweehonderdduizend terroristische incidenten die wereldwijd plaatsvonden en combineerde die met een database van filmscenario’s, boeken en theaterstukken waarin terrorisme voorkomt, opgebroken in scenario-elementen. Fictie kan volgens De Kock een krachtige voorspeller zijn. ‘Neem bijvoorbeeld de aanslagen van 11 september. Een vliegtuig dat zich in een wolkenkrabber boort, zoiets had de Amerikaanse schrijver Tom Clancy al jaren eerder beschreven in een van zijn boeken.’
Zie hieronder het interview dat hij gaf op de dag van zijn promotie in De Wereld Draait Door, met de kern van zijn onderzoek: ??wij zijn [?] nu voor de eerste keer in staat om heel veel data te genereren, heel veel data te wassen [?] Tot voor kort was het belangrijk wie dat opsporingsonderzoek leidde en of die de juiste kennis had. Nu kun je die kennis apart in een database zetten en iedereen heeft daar toegang toe die je daar toegang toe verleent. En dat gaat diegene helpen die de interpretatie moet maken.?
De aanpak is veelbelovend. De Kock liet zijn algoritmes voorspellingen doen op basis van terroristische incidenten die gepleegd waren voor 2007 en vergeleek de uitkomsten met aanslagen die werkelijk plaatsvonden na 2007. Zijn systeem bleek in sommige gevallen vijftig tot zeventig procent beter te kunnen voorspellen dan gangbare methodiek. Dat zijn bijzondere scores bij een ongrijpbaar verschijnsel als terrorisme. Niet gek dus dat veiligheidsorganisaties wereldwijd De Kock weten te vinden. ‘Telkens als er een klap is ergens in het Westen gaat bij mij de telefoon: je moet n? komen praten.’ Ook grote softwarebedrijven als IBM?en Oracle hebben interesse getoond. Toch heeft de politiemedewerker ervoor gekozen zijn voorspeller vooralsnog alleen in te zetten voor zijn eigen werkgever. Dit jaar nog koppelt hij zijn databases aan die van de politie en kan het betere orakelwerk beginnen.
Dat betekent overigens niet dat er straks spontaan een naam, een moordwapen en een locatie uit het systeem komt rollen, zegt De Kock: ‘Het werkt eerder zo: stel, een omstreden politicus houdt een boeksigneersessie, of Obama bezoekt Nederland. Dan kan mijn systeem straks alle potenti?le scenario’s bedenken van mogelijke daders en hun werkwijze.’ Daar kan de politie zich dan alvast op voorbereiden.
Maar dat is later. Wat de politie op dit moment zonder hulp van buitenstaanders onderneemt weet Rutger Rienks, een van de grondleggers van predictive policing in Nederland. Rienks, een jongensachtige dertiger, werkte tot een half jaar geleden bij de politie. Hij schreef voor de politieacademie het boek Predictive Policing: Kansen voor een veiligere toekomst, dat vorig jaar verscheen. Inmiddels werkt Rienks voor de gemeente Amsterdam, maar hij wil best nog eens vertellen over zijn ervaringen bij de politie. Want ja, hij is enthousiast. ‘Ik zie kansen, nou en of. Predictive policing kan ons een hele hoop ellende besparen. Er zitten natuurlijk allerlei haken en ogen aan, maar als je vertrouwen hebt in de modellen die die voorspellingen doen en ze goed toetst, dan kun je een hoop narigheid voorkomen.’
Die haken en ogen, daar heeft de oud-?politiemedewerker nog een leuk verhaal over met een poedel in de hoofdrol. Maar dat komt straks, eerst de voorspellende systemen. Rienks noemt in zijn boek een aantal voorbeelden. Het absolute paradepaardje van de politie is het zogenoemde Criminaliteits Anticipatie Systeem (CAS), dat in 2012 door de Amsterdamse politiemedewerker Dick Willems is ontwikkeld. Door het combineren van onder meer historische criminaliteitscijfers met CBS-data (denk aan inkomensgegevens, uitkeringen, gezinssamenstelling) en adressen van bekende verdachten kan de politie woninginbraken en straatroven voorspellen. Het systeem is in staat ongeveer veertig procent van de woninginbraken en zestig procent van de straatroven te voorspellen. Het cas wordt inmiddels uitgetest in vier steden, het streven is het systeem over heel Nederland uit te rollen. Ook internationaal is de belangstelling gewekt. Vertegenwoordigers uit onder andere Canada en Turkije zijn al op bezoek geweest om er meer over te weten te komen.
In onderstaande uitzending van Factchecker legt Dick Willems van de politie Amsterdam uit hoe het globaal werkt (na ongeveer 9 minuten in de uitzending). Zie ook?hier.
Een vergelijkbaar systeem in samenwerking met de Universiteit Twente stuurt helikopters preventief af op plekken waar veel misdaad wordt verwacht op basis van historische cijfers. Net als bij de meeste vormen van predictive policing gaat het daarbij om high impact crimes als inbraak, overvallen en straatroof. Deze vormen van criminaliteit hebben prioriteit binnen de politie, bovendien laten ze zich makkelijk voorspellen omdat ze relatief veel voorkomen.
Twee andere projecten van de politie vallen op omdat ze voorspellingen doen over individuen. ProKid, een signaleringsinstrument dat in 2013 landelijk werd ingevoerd, voorspelt van kinderen tot twaalf jaar wie de grootste kans maakt op te groeien tot delinquent. Risicotaxatie-instrument RTI-Geweld schat van elke persoon die bij de politie bekend is (bijvoorbeeld vanwege betrokkenheid bij een incident) hoe groot de kans is op toekomstig geweld. ‘Bepaalde vroeger het aantal delicten dat iemand had gepleegd of hij boven aan de lijst kwam’, schrijft politiemedewerker Remco van der Hoorn in het boek van Rienks, ‘nu is dat het feit of hij het grootste risico laat zien in de toekomst weer over de schreef te gaan.’
Tijd voor het verhaal met de poedel. Daarvoor moeten we nog ??n vorm van predictive policing leren kennen: het voorspellen van drugssmokkel. Door gegevens over kentekens en reis?patronen te combineren kan de politie sinds 2011 auto’s opsporen waarvan de kans statistisch gezien groot is dat er drugs mee gesmokkeld wordt. Die aanpak werpt zijn vruchten af: door de controle te focussen op de voertuigen die de computer aanwijst, is het aantal gevonden grammen hero??ne per gecontroleerd voertuig van 5 naar 1027 gestegen. Rienks: ‘Het werkt erg goed. Maar het gaat ook wel eens mis.’
Zo kon het dat een poos geleden een verdachte auto op de snelweg in de buurt van Rotterdam met veel toeters en bellen werd klemgereden. De bestuurder bleek geen drugssmokkelaar, maar een geschokte oudere dame die net een spuitje voor haar poedel had gehaald. Haar pas aangeschafte tweedehands auto was, zo werd later duidelijk, van een smokkelaar geweest. Het nummerbord stond daarom nog in het systeem. De route die ze die dag reed paste toevallig precies in een verdacht reispatroon. ‘De mevrouw heeft een bosje bloemen gekregen als excuses. Maar zo zijn er natuurlijk wel meer verhalen.’
Het incident met de poedel is een goed voorbeeld van een van de nadelen van predictive policing: de kans op foute positieven. Dat zijn personen, plekken of situaties die ten onrechte als risico worden aangemerkt. Bij de ingebruikname van een nieuw systeem kan dat veel voorkomen. Zo bleek bij de evaluatie van de eerste pilots met ProKid dat meer dan ??n op de drie kinderen (36 procent, in totaal 902 kinderen) ten onrechte als risicokind werd aangemerkt door systeem- of registratiefouten. Ze werden door de computer geselecteerd op basis van incidenten die volgens de betrokken wetenschappers ‘irrelevant’ waren, staat te lezen in een evaluatie uit 2011. Dit soort fouten zijn, ook als een systeem al verder ontwikkeld is, moeilijk helemaal uit te sluiten, zegt Rienks. ‘Er bestaan altijd uitzonderingscategorie?n. Een jongeman in een veel te dure auto kan bijvoorbeeld een crimineel lijken, maar het kan ook een professioneel voetballer zijn.’
De uitzondering op de regel: het is ook een van de bezwaren van universitair docent criminologie Marc Schuilenburg van de Vrije Universiteit. Schuilenburg schreef een aantal artikelen over predictive policing en is, zacht gezegd, geen fan. De lijst met problemen die hij voorziet is lang. Om met de basis te beginnen: wetenschappelijk bewijs dat voorspellend politiewerk werkt is dun gezaaid. ‘Bij voorspellingen over plaatsen lijkt het er inmiddels wel op dat het effect kan hebben’, zegt hij. ‘Je ziet in internationale literatuur dat de criminaliteit afneemt als de politie extra gaat surveilleren in een wijk waar veel misdaad wordt verwacht. Hoewel het risico bestaat dat de criminaliteit zich verplaatst naar een andere wijk.’
Een stuk ingewikkelder wordt het als het om personen gaat. ‘Het is nog maar helemaal de vraag of je op basis van algoritmes kunt bepalen wie een misdaad gaat plegen.’ Daarbij zijn de risicoprofielen die veiligheidsorganisaties gebruiken volgens Schuilenburg te breed: ‘Je ziet dat er te veel personen aan de criteria voldoen. Dat levert een enorm lange lijst individuen op, die de politie onmogelijk allemaal in de gaten kan houden. Neem de aanslagen in Parijs en Brussel: alle daders bleken achteraf al in de kaartenbakken te zitten.’
Belangrijker nog: de gegevens waar voorspellingen op gebaseerd zijn, zijn niet altijd van goede kwaliteit. ‘De politiedata die gebruikt worden zijn vaak vuil. Het zijn haastig gemaakte notities of halve verwijzingen.’ Hoe slechter de data, hoe onbetrouwbaarder de voorspelling, wil de criminoloog maar zeggen. Zo staat in een verantwoordingsrapport uit 2014 over het eerder genoemde RTI-Geweld te lezen dat de gegevens waarop de voorspellingen zijn gebaseerd ‘soms erg vervuild’ zijn. ‘Als voorbeeld: iemand die als verdachte aan een incident is gekoppeld, hoeft dit in werkelijkheid niet geweest te zijn.’
Bovendien kunnen de data gekleurd zijn. Daarmee komt Schuilenburg op een vaak gehoorde klacht in de VS: predictive policing zou leiden tot etnisch profileren. ‘Er mogen allerlei slimme algoritmes aan te pas komen, daarmee zijn voorspellende modellen nog niet neutraal.’ De historische criminaliteitscijfers die bij predictive policing standaard worden gebruikt, kunnen bepaalde vooroordelen bevatten, bijvoorbeeld omdat sommige bevolkingsgroepen vaker worden opgepakt voor hetzelfde delict dan andere. Als een algoritme daar patronen in gaat zoeken, kunnen diezelfde vooroordelen weer uit het systeem rollen. Een voorspelling die zichzelf waarmaakt. Schuilenburg: ‘Dat zie je nu ook al gebeuren bij zo’n inbraakvoorspeller van de politie. Daar komen altijd wijken uit waar mensen wonen die al veel met de politie in aanraking zijn gekomen.’
De Wetenschappelijke Raad voor het Regeringsbeleid (WRR) waarschuwt ook voor dit zelfversterkende effect. De raad deed de afgelopen twee jaar in opdracht van de regering onderzoek naar het gebruik van big data door veiligheids?instellingen; eind april verscheen het onderzoeksrapport. Predictive policing komt daarin ook aan bod. ‘Een wijk waarin veel gesurveilleerd wordt, zal prominenter terugkomen in de criminaliteitscijfers. De extra aandacht vergroot de bestaande problemen verder uit, hetgeen weer de basis voor nieuw beleid kan zijn, dat op zijn beurt het (negatieve) beeld verder versterkt.’
Nonsens, vindt Jeffrey Brantingham. ‘Burgers doen aangifte van misdaad bij de politie. Als de politie die gegevens vervolgens gebruikt om preventief in bepaalde buurten te surveilleren en daarmee een buurt veiliger te maken, doet ze toch precies wat de maatschappij vraagt?’
Het is niet de eerste en zeker niet de laatste keer dat Brantingham gevraagd wordt naar de schaduwkant van zijn voorspellingsmodellen. De hoogleraar antropologie in Los Angeles stond hoogstpersoonlijk aan de wieg van predictive policing. ‘Dat was niet gepland: ik deed onderzoek naar iets anders, maar er kwam een techniek uit waar de politie naar smachtte.’ Brantingham onderzocht voor het Amerikaanse leger modellen om aanvallen van rebellen en mogelijke burgerslachtoffers in Irak te voorspellen. Dezelfde software bleek inbraken en straatroof te kunnen voorzien.
Inmiddels staat Brantingham aan het hoofd van een indrukwekkend voorspellings?imperium: PredPol, een bedrijf dat in de VS alleen al in zestig steden actief is en ook in het Verenigd Koninkrijk software verkoopt. De Nederlandse politie heeft ook interesse, zegt Brantingham tijdens een flitsbezoek aan Den Haag. ‘Er zijn gesprekken geweest, maar nog niets formeels.’ Wat betreft die kwestie rond etnische profilering, daar kan de hoogleraar kort over zijn. ‘PredPol maakt geen gebruik van persoonsgegevens. We kijken alleen waar en wanneer iets gebeurd is.’ Racisme, met andere woorden, is uitgesloten. ‘Gemeenschappen krijgen meer politiesurveillance als ze vaker aangifte doen. Ze krijgen dus precies de aandacht waar ze om vragen.’
Toch kan die manier van werken indirect hetzelfde effect hebben, zegt Schuilenburg. Buurten met een slechte reputatie en veel politieaandacht komen eerder als risicolocatie uit de bus. Het gevolg is nog meer politieaandacht, die mogelijk gepaard gaat met etnisch profileren. ‘De politie pakt nu eenmaal eerder een Marokkaan in een hoody op dan iemand zoals ik in een maatpak.’ Dat werd vorige week duidelijk toen Typhoon werd aangehouden. De politie vond de dure auto waarin de rapper van Surinaamse afkomst reed in combinatie met zijn huidskleur verdacht.
De WRR?benoemt daarbij nog een probleem: bij wie ligt de verantwoordelijkheid als een voorspelling de plank volledig misslaat? ‘Aangezien de discriminatie in veel gevallen niet intentioneel is en niet met opzet in het algoritme ingeschreven wordt door de computerprogrammeurs zal het zeer moeilijk te achterhalen zijn wie verantwoordelijk is voor het probleem en om dit te bewijzen in een rechtszaak.’
Op naar Den Haag. Daar wordt op een zogeheten ‘verboden plaats’ gewerkt aan voorspellende modellen. Die verboden plek is een locatie van onderzoeksinstituut TNO?waar aan staats?geheimen wordt gesleuteld. Onderzoekers werken er bijvoorbeeld in opdracht van defensie. Bezoekers moeten hun telefoon bij de receptie achterlaten en mogen alleen onder begeleiding door het gebouw lopen. Het is ook de plek waar Selmar Smit en Arnout de Vries onderzoek doen naar verschillende modellen voor politie en veiligheidsdiensten. De Vries: ‘We proberen uit te zoeken hoe ver we kunnen gaan met voorspellen. Meer kunnen we er niet over zeggen.’
Toch heeft het duo een hoop te vertellen. De onderzoekers publiceerden eind april samen met twee andere collega’s een uitgebreid rapport over predictive policing. ‘Criminelen zijn gewoontedieren’, zegt De Vries. ‘Daardoor kun je makkelijk patronen zien in veel voorkomende vormen van misdaad.’ Hoewel er volgens collega Smit nog meer wetenschappelijk onderzoek moet komen, ‘is het aannemelijk dat predictive policing werkt’. Op dit moment doet tno alleen onderzoek voor overheidspartijen. ‘Maar vanuit de private sector bestaat veel interesse.’ Met name verzekeraars en particuliere beveiligingsbedrijven zien wel brood in een kijkje in de toekomst.
De technologie is veelbelovend, vinden de onderzoekers. Maar ze maken zich ook zorgen. Zo is er de privacy-kwestie. ‘Een goede voorspeller voor inbraken zijn de adressen van bekende inbrekers die net uit de gevangenis komen’, zegt Smit. ‘Maar ja, ze hebben hun straf al uitgezeten. Mag je die gegevens toch gebruiken?’ Andere kwestie: voor het doen van goede voorspellingen zijn data nodig, v??l data. Dat vereist al snel dat meerdere datasets aan elkaar worden gekoppeld. De Vries: ‘Dat is een enorm probleem. Die informatie heb je ooit verzameld met een bepaald doel en nu ga je het ineens voor een ander doel gebruiken, het voorspellen van misdaad.’
Privacy en het verzamelen van grote hoeveelheden data staan per definitie met elkaar op gespannen voet, staat te lezen in het eerder genoemde wrr-rapport. De wet schrijft voor dat gegevens niet voor een ander doel gebruikt mogen worden dan waarvoor ze verzameld zijn, ?n dat er niet meer gebruikt mag worden dan strikt noodzakelijk is. Het grote voordeel van big data-onderzoek zit ‘m nou juist in het ongericht verzamelen en combineren van eindeloze hoeveelheden gegevens, waardoor onverwachte patronen kunnen opduiken. ‘Spanningen met privacy en het gegevensbeschermingsrecht zijn daardoor nooit ver weg.’ Wetgeving schiet daarbij te kort. Of, zoals de wrr het formuleert: er is een ‘mismatch’ tussen wetgeving en het gebruik van big data door veiligheidsorganisaties. Regels over het verzamelen van data zijn er al, maar wat er vervolgens met die gegevens gebeurt, de analyse van die data, moet beter gereguleerd worden, vindt de raad.
Een fundamenteler probleem is dat predictive policing ingaat tegen het idee dat een individu onschuldig is tenzij anders bewezen. ‘De politie is eigenlijk van jou de kans aan het berekenen dat jij verdachte zou kunnen zijn’, zegt De Vries. Dat is in strijd met de onschuldpresumptie – een grondbeginsel van het strafrecht. ‘Het is heel moeilijk daar juridisch mee om te gaan.’
Het gevolg kan zijn dat de politie meer vrijheid krijgt om te handelen zonder rechterlijke controle, zegt Marc Schuilenburg. ‘Normaal gesproken heeft de politie toestemming van de rechter-commissaris nodig om bijvoorbeeld een telefoon te mogen aftappen.’ Bij predictive policing ontbreekt die controle. ‘De politie kan mensen op basis van een voorspelling alvast in de gaten gaan houden, zonder dat daar een zuiver juridische grond voor is’, zegt de criminoloog. ‘Het steeds vroeger willen ingrijpen van de politie schept zo een bijna ongebreidelde vrijheid voor de politie zelf.’
De politie zet met voorspellend politiewerk mogelijk te ruim opsporingsbevoegdheden in, zegt ook Bart Schellekens. Hij is onderzoeker Recht en ICT?bij de Raad voor de Rechtspraak, maar reageert op persoonlijke titel. ‘We moeten ons afvragen of dat past binnen de taak van de politie, en of toezicht en transparantie wel goed geregeld zijn.’ Voor Schuilenburg is dat al niet meer de vraag, maar een zorgwekkende constatering. ‘Met predictive policing rolt de politie een digitaal vangnet uit waarin de rechten van burgers volledig ondergesneeuwd raken aan die van onduidelijke opsporingsbelangen.’
Zo mogelijk nog ingewikkelder wordt het als het voorspellend model afkomstig is van een bedrijf dat het niet wil prijsgeven, zegt De Vries. ‘Mijn grootste zorg is uiteindelijk dat bedrijven de markt overnemen. Daar zit veel meer geld en kan veel meer snelheid gemaakt worden met technologie die al voor het oprapen ligt.’ Alle eerder genoemde risico’s, van etnisch profileren tot privacy-schending, nemen volgens de tno-?onderzoekers alleen maar toe als private partijen de boel overnemen, omdat er veel minder druk is om transparant te opereren. Smit: ‘Dan kan er anarchie ontstaan.’
Zo ver is het nog niet. De Vries: ‘Predictive policing groeit hard, maar staat nog in de kinderschoenen. Of de overheid uiteindelijk de overhand gaat krijgen of het bedrijfsleven gaan we zien. Maar dat de geest uit de fles is als het gaat om het voorspellen van misdaad, is wel duidelijk.’
Het is een veel gehoord geluid als het over voorspellend politiewerk gaat: de opmars van de kristallen bol lijkt onomkeerbaar. Sander Klous, hoogleraar big data aan de Universiteit van Amsterdam en adviseur ‘big data analytics’ bij KPMG, publiceerde onlangs een rapport met de veelzeggende titel Iedereen wil uiteindelijk die voorspellende glazen bol. ‘Het werkt met big data net als met tandpasta’, licht de hoogleraar toe. ‘Eenmaal uit de tube kun je proberen het terug te duwen, maar dat gaat niet lukken.’ Minder kleurrijk gezegd: als data eenmaal beschikbaar zijn, is het vrijwel onmogelijk deze weer terug te trekken. En er wordt steeds meer gemeten en gedeeld, niet in de laatste plaats dankzij smartphones en sociale media. Het valt te verwachten dat daar, nu voorspellingstechniek ?royaal voorhanden is, alleen maar meer gebruik van gemaakt zal worden.
Het sluipende gevaar is wat de WRR?’data?determinisme’ noemt. Het risico dat individuen worden beoordeeld op basis van wat statistisch gezien aannemelijk is dat ze gaan doen, in plaats van wat ze feitelijk gedaan hebben. Marc Schuilenburg heeft er een andere, meer dramatische term voor: ‘de gedachtenpolitie’ – een politieorganisatie meer gericht op intentie dan op de daad zelf. De verschuiving naar intentie is volgens Schuilenburg deel van een bredere ontwikkeling. ‘Het klassieke strafrecht in Nederland was een daadstrafrecht. Er moest een fysieke handeling hebben plaatsgevonden voordat iemand strafbaar was.’ Dat wordt de laatste twintig jaar steeds verder losgelaten. Voorbereidingshandelingen zijn bijvoorbeeld strafbaar geworden. ‘Als ik met een kalasjnikov in m’n hand en een plattegrond van een bank in m’n zak over straat loop, is dat genoeg voor een veroordeling.’ De daad zelf is daarmee opgerekt tot de voorbereiding ervan. ‘Het gevaar is dat de politie steeds eerder in het hoofd van mensen probeert te kruipen, aan bepaalde gedragingen conclusies gaat verbinden en al ingrijpt voor er iets gebeurd is. Terwijl: het is altijd de vraag of die persoon wel tot die daad was gekomen als je niets had gedaan.’
Daarmee raakt Schuilenburg aan de kern van veel vraagstukken rond voorspellend politiewerk: wat als iemand iets anders doet dan verwacht? Het is het klassieke thema van veel sciencefictionfilms en -boeken: predestinatie versus vrije wil. Tom Cruise krijgt er halverwege Minority Report mee te maken. Volgens de helderzienden staat hij deze keer zelf op het punt een man te vermoorden. De daad lijkt onontkoombaar, de politieagent gelooft heilig in zijn voorspellingsmethode. Hij zal ook bijna wel moeten: als hij de moord niet pleegt is hij het levende bewijs dat zijn methodiek niet werkt. ‘Je hebt w?l een keuze’, fluistert een van de helderzienden hem in.
Dat dit soort onwerkelijke dilemma’s geen volslagen fictie meer zijn, bewijst het voorbeeld uit Pennsylvania. Als de staat inderdaad een rekenmodel invoert dat rechters de strafmaat helpt bepalen, dan worden daders preventief afgerekend op een statistisch gegeven. De kans op recidive wordt met behulp van een punten?systeem berekend, aan de hand van onder andere historische criminaliteitsgegevens. Man-zijn alleen al levert daarbij meer punten op, omdat er nu eenmaal vaker mannen dan vrouwen worden veroordeeld. Hetzelfde geldt voor leeftijd: een jongere is een groter risico dan iemand van boven de veertig. Zelfs de woonplek telt mee: een stadsmens gaat vaker de fout in dan een plattelandsbewoner en kan dus strenger worden gestraft. Cijfermatige voorbestemming gaat zo zwaarder wegen dan vrije wil – de kans dat iemand iets anders doet dan wat statistisch voor de hand ligt.
Dezelfde kwestie in een andere vorm speelde bij de Amerikaan Robert McDaniel. In de zomer van 2013 stonden er drie agenten op de stoep van de toen 22-jarige inwoner van Chicago. De stad had net een voorspellend model in gebruik genomen dat moest bepalen welke inwoners de grootste kans maakten betrokken te raken bij een gewelddadig incident. McDaniel stond op de lijst en kreeg prompt bezoek van de politie. De boodschap: we houden je in de gaten, nog ??n misstap en de gevolgen zijn groot. Het incident haalde de krant omdat niet duidelijk was hoe de jongen op de lijst was beland, aangezien hij behalve een aantal arrestaties voor kleine vergrijpen (waaronder het roken van wiet) een schone lei had. ‘Ik heb niets m??r gedaan dan elke andere jongere die in deze buurt opgroeit’, zei McDaniel destijds in de Chicago Tribune. De doorslaggevende factor was waarschijnlijk dat hij wel vrienden had met een uitgebreid strafblad. Omdat sociale netwerken een goede voorspeller van gedrag zijn, telden die mee.
‘Zien we in de Nederlandse rechtbanken binnenkort ook Pennsylvaniaanse toestanden?’ vroeg de minister van Veiligheid en Justitie Ard van der Steur onlangs retorisch bij de ontvangst van het WRR-rapport over big data en veiligheid. ‘Ik zal het nog eens navragen bij de Raad voor de Rechtspraak, maar ik vermoed van niet.’ Tegelijkertijd moeten we ons door dit soort ‘dystopische’ voorbeelden niet laten afschrikken van de mogelijkheden die big data bieden op het gebied van veiligheid, vindt de minister. ‘Als de negentiende-eeuwse boer die zo’n nieuwerwetse trein langs zijn wei vol koeien ziet denderen en denkt: verdomd, straks wordt de melk zuur.’
Dat Nederland die behoudende boer in elk geval niet is, blijkt uit het WRR-onderzoek. Wat de gevolgen daarvan zijn, zal moeten blijken. Volgens Van der Steur moeten we vooral realistisch zijn. ‘Wat geldt voor de zelfrijdende auto’s en drones geldt ook voor big data: het is niet de vraag of het onderdeel wordt van ons dagelijks leven, maar hoe we het vormgeven.’
Dit artikel kwam tot stand met steun van Fonds 1877
Bronnen: De Groene Amsterdammer