Tagarchief: deep learning

Wetenschap helpt politie met data analyse voor recherche

big data analytics

Recherchewerk verandert ingrijpend door de mogelijkheden van Big Data analytics. De politie gaat samenwerken met wetenschappers om beter informatie uit in beslag genomen smartphones en computers van verdachten te kunnen halen. Het idee is dat een computer met nieuwe technieken razendsnel miljoenen foto?s, berichten, locatiegegevens en filmpjes kan doorpluizen op zoek naar verbanden die een agent met het blote oog niet snel ziet.

De politie begint daarvoor het project ?Politielab? met Amsterdam Data Science. Dat is een samenwerkingsverband van de twee universiteiten en hogeschool in Amsterdam, en het Centrum Wiskunde & Informatica.

Drie promovendi van de Universiteit van Amsterdam gaan hun promotieonderzoek doen bij de politie door de?computertechniek deep learning te gebruiken voor opsporingswerk. Deep learning-netwerken zijn goed in het herkennen van patronen.Er is veel belangstelling voor vanuit de wetenschap, zegt de politie. Er moeten programma’s worden ontwikkeld om snelle data-analyse mogelijk te maken.?De promovendi worden gefinancierd vanuit de politie.

“Er zijn steeds meer data aan het werk, waardoor het steeds moeilijker is om verbanden te ontdekken. Daarom willen we de expertise van de wetenschap gebruiken”, zegt Theo van der Plas, programmadirecteur digitalisering en cybercrime bij de politie in het NOS Radio 1 Journaal. De ontwikkelingen in de wetenschap gaan volgens hem zo snel dat de politie daar graag bij wil aansluiten.

NOS Tech podcast in gesprek met?Theo van der Plas:

Misdaden sneller oplossen

De techniek helpt bij het ontdekken van nieuwe verbanden die rechercheurs niet met het blote oog kunnen zien. De computer kan razendsnel grote hoeveelheden bestanden met elkaar vergelijken en verbanden leggen. “Uiteindelijk zullen we daardoor sneller de onderzoekslijn vinden en sneller tot de oplossing van een misdaad kunnen komen”, zegt Van der Plas.

“Er is bijvoorbeeld een grote hoeveelheid foto’s van huiskamers. Combinatie van die beelden kan tot de conclusie leiden dat het om een clubhuis gaat waarvan een criminele bende gebruikmaakt. Door deze data science kunnen we mogelijk herleiden waar dat clubhuis staat en dat helpt ons enorm in het onderzoek.”

Uitdagingen

De enorme hoeveelheid gegevens in strafrechtelijke onderzoeken waar de politie mee te maken krijgt, brengt nieuwe uitdagingen met zich mee, zegt Theo van der Plas, programmadirecteur digitalisering en cybercrime van de politie. ?Zoals hoe je eruit haalt wat je nodig hebt. Of hoe haal je eruit wat je nog niet wist dat je nodig hebt voor het onderzoek? Ik verwacht dat we met de nieuwe technieken verbanden gaan zien die we nooit eerder hebben ontdekt.?

Nu al gebruikt de politie computertools waarmee automatisch kan worden gezocht in gegevens. Politielab moet de volgende stap zetten. Zo moet de rechercheur met een druk op de knop een samenvatting krijgen van wat er interessant kan zijn van alle in beslag genomen apparaten. De computer ziet relaties en (afwijkende) patronen in de gegevens.

Om een voorbeeld te geven: de computer herkent dat twee foto?s op verschillende apparaten op dezelfde plek zijn genomen. Dat kan aan de hand van bijvoorbeeld locatiegegevens en objecten die op de beelden te zien zijn. Voor de politie kan het een indicatie zijn dat twee verdachten op dezelfde plek zijn geweest.

‘Wapenwedloop’

De samenwerking met de wetenschap is voor de politie een belangrijke stap in ?de wapenwedloop? met criminelen, zegt Van der Plas. ?Criminelen hebben veel mogelijkheden om het ons lastig te maken. Ze versleutelen hun berichten en maken gebruik van allerlei verschillende communicatiemiddelen. Door de nieuwe tools kunnen wij straks hopelijk meer kennis halen uit de berg informatie die we in beslag hebben genomen.?

Daarmee worden niet alle problemen voor de politie opgelost, erkent hij. Gegevens die versleuteld zijn, zijn ook met de nieuwe tools niet te doorzoeken. Daarom is ook de nieuwe Wet Computercriminaliteit, die momenteel in behandeling is in de Eerste Kamer, belangrijk, zegt hij. Die geeft de politie de bevoegdheid computersystemen van verdachten te hacken, wat er onder meer voor moet zorgen dat informatie wordt verzameld v??rdat die versleuteld is.

politielab

Toestemming

Daarnaast heeft de Hoge Raad zich onlangs uitgesproken over het doorzoeken van alle informatie op een smartphone. Dat kan een bijna compleet beeld opleveren van iemands persoonlijke leven en mag volgens het arrest dus niet zonder toestemming van een officier van justitie of rechter-commissaris, wat tot voor kort niet altijd gebeurde.

Ook de nieuwe tools die in het Politielab worden ontwikkeld, zullen aan de waarborgen voldoen, zegt Van der Plas. Zo gaat de politie volgens hem niet ongericht analyses toepassen op de in beslag genomen apparaten als de informatie niet relevant is voor het onderzoek.

Computers kunnen steeds beter rechercheren

Zo kunnen computers steeds beter foto?s interpreteren. De politie kan daar haar voordeel mee doen bij onderzoeken. Oefening baart kunst. Dat geldt voor mensen, maar ook voor computers. Dus als je wilt dat een computer herkent dat er bijvoorbeeld een wapen op een foto staat, dan moet je eerst heel veel voorbeelden van wapens tonen.

Op de Amerikaanse Stanford-universiteit zijn ze om die reden bezig geweest met het invoeren van miljoenen gelabelde foto?s van allerlei voorwerpen en alledaagse taferelen. Van die database wordt nog steeds wereldwijd gebruikgemaakt. Straks ook door de onderzoekers van het ?Politielab?. Voor Marcel Worring, hoogleraar informatica aan de UvA en een van de initiatiefnemers van Amsterdam Data Science, bekend terrein. ?De technieken die we daarvoor gebruiken zijn niet nieuw. Ze zijn wel een stuk beter geworden. Kon een computer eerst nog maar een antwoord geven op de vraag wat er op een foto staat, nu herkent hij losse elementen, en zegt hij bijvoorbeeld: er staan hier vier personen op, een boom een auto.?

Wat is de grootste uitdaging van het project met de politie?

?De computer is steeds beter geworden in het herkennen van wat er op een foto staat, en het begrijpen van onze taal. De volgende belangrijke stap is de verbanden tussen beeld en taal maken. Een foto met daarop een wapen kan een andere lading krijgen als daar een bepaalde tekst bij staat.

?Datzelfde geldt voor het zien van patronen. De computer moet gaan herkennen dat er plotseling een reeks foto?s op dezelfde plek is genomen. Dat kan aan de hand van geografische gegevens in smartphones, maar ook door te herkennen dat bepaalde elementen op twee foto?s hetzelfde zijn. Een zelfde gebouw bijvoorbeeld.?

Heeft de politie wel wat aan de al bestaande database van Stanford? Het zijn niet altijd alledaagse dingen waar agenten naar op zoek zijn in strafrechtelijke onderzoeken.

?Over het algemeen geldt: hoe meer elementen de tools kunnen herkennen, hoe makkelijker het wordt om nieuwe dingen te leren. De politie kan dus voor hen relevante beelden toevoegen, zoals bepaalde wapens.?

Is de computer beter in de analyse dan een mens?

?Ik heb altijd gezegd: de computer is dommer dan de mens, alleen wel veel sneller. Maar computers beginnen langzaam op ons in te lopen. Ze zien patronen die je als mens niet makkelijk zult herkennen. Waar de computer alleen absoluut niet tegenop kan, is de ervaring en het onderbuikgevoel van een rechercheur die belast is met het onderzoek naar een in beslag genomen apparaat. Die onderbuikgevoelens kun je niet in regels vatten, dus kun je het een computer niet leren. Echte experts zijn nog altijd beter in het herkennen van subtiele details in beeld zoals een stopcontact, maar computers lopen op hen in. ?

Is het dan straks de techniek die bepaalt of iemand vervolgd gaat worden?

?De interpretatie van de bevindingen moet altijd aan mensen overgelaten worden. Het is niet zo dat de computer straks kant-en-klaar bewijsmateriaal gaat afleveren in de rechtszaal. Een voorbeeld: een computer kan wel constateren dat criminelen opeens een nieuw woord gaan gebruiken en de rechercheur daarop wijzen. Maar begrijpen dat ze daarmee op drugs doelen, is een tweede.?

Hoe gaat deep learning de politie helpen?

?Eerder waren we blij als de computer een zonsondergang of zebra op een foto herkende. Computers kunnen inmiddels bij een foto met een hond aangeven om welk ras het precies gaat, ze kiezen dan uit honderden soorten. Dit soort software willen wij bijvoorbeeld ombouwen, zodat computers ons vertellen welk merk en type vuurwapen op een foto staat.

?Na herkennen van wat op de foto staat, is verbanden leggen een volgende stap. We willen dat computers binnen enkele seconden uitleg kunnen geven over de inhoud van een in beslag genomen smartphone. Gaat het hierbij bijvoorbeeld om een potenti?le terrorist die bezig is geweest met het plannen van een aanslag?

?Daarnaast moet software snel verbanden of afwijkende patronen kunnen vinden in enorme bergen data. Zo moet het mogelijk worden verbanden te vinden tussen beelden en tekst, tussen bijvoorbeeld een foto van Schiphol en dreigende woorden.?

Waarom gebeurt dit niet nu al?

?Wetenschappers werkten natuurlijk al samen met de politie. Zo lukt het computers in onderzoeken naar kinderporno vaak te herkennen of beelden uit dezelfde kamer komen, maar bijvoorbeeld gefilmd vanuit een andere hoek.

?We zetten nu een nieuwe stap. Het Politielab is een groter samenwerkingsproject, en de technieken waarmee wij gaan werken zijn veel intelligenter. Daarmee herkennen computers details ? een bepaald behang, een manier van inrichten. Door locatiegegevens van foto?s aan elkaar te koppelen, kunnen ze zien of criminelen misschien samenwerken.?

De ontwikkelingen binnen deep learning gaan snel. Hoe komt dat?

?Deep learning heeft in het vak van data-analyse de afgelopen jaren tot grote revoluties geleid. Daar zijn twee belangrijke oorzaken voor. Netwerken binnen deep learning worden niet geprogrammeerd, maar getraind door ze als het ware te voeden. Afgelopen jaren hebben onderzoekers, onder meer van de fameuze Stanford-universiteit, computers duizenden voorbeelden gegeven om ze slimmer te maken. De techniek van deep learning komt al uit de vorige eeuw, maar in 2006 is er een grote doorbraak geweest uit de game-industrie. Om ingewikkelde fictieve landschappen in de games snel en scherp te laten zien, was er veel rekenkracht nodig. Het lukte om tientallen, soms honderden lagen neuronen tegelijk berekeningen te laten uitvoeren. Het zou zonde zijn dat vermogen niet te benutten voor de bestrijding van criminaliteit.?

Bronnen: Trouw, NRC, NOS, Politie

Predictive policing: lessen voor de toekomst

ppHoorn

?It?s not how many people you catch, it?s how many crimes you prevent.?

Van alle politiestrategie?n mag predictive policing zich misschien wel het meest verheugen in de belangstelling van burgers en professionals. Grofweg tekent die belangstelling zich op twee manieren af. Aan de ene kant zijn daar degenen die vooral veel heil zien in deze nieuwe strategie voor het functioneren van de politie. Zij verwachten (of hopen) dat de politie dankzij predictive policing effectiever en effici?nter criminaliteit zal weten te bestrijden. Met name door te voorkomen dat criminaliteit gepleegd wordt, daarbij niet zelden verwijzend naar de film Minority report uit 2002. Een film waarin een speciale eenheid van de politie, Pre-Crime genaamd, met behulp van helderzienden toekomstige misdadigers arresteert. Het zal de lezer niet verbazen dat deze hoopvolle verwachting binnen de politie op veel bijval kan rekenen.

Aan de andere kant van het spectrum staan mensen die vooral bezorgd zijn over predictive policing. Zij zien deze ontwikkeling als een bedreiging voor de privacy, waarbij afwijkend gedrag maatgevend is, en niet strafbaar gedrag. In combinatie met verruimde bevoegd- heden voor opsporings- en veiligheidsdiensten en allerlei andere technologische ontwikkelingen tekent voor hen het beeld van big brother zich steeds meer af, waarbij iedere burger als een potenti?le verdachte gevolgd wordt door een gedachtepolitie. Voor de burger- rechtenorganisatie Bits of Freedom voldoende reden de politie de Big Brother Award 2015 uit te reiken.

Weliswaar sterk verschillend naar de wijze waarop dit zich uit, tonen beide groepen hiermee hun geloof in de werking van predictive policing. Beide kanten nemen aan dat predictive policing werkt, waarna de aandacht uitgaat naar hoe die uitwerking te beschouwen. Dit verraadt een sterke nadruk op het eerste woord ? predictive ? van deze nieuwe politie- strategie. En vermoedelijk is dit ook de reden voor de grote belangstelling. Al sinds mensenheugenis spreekt voorspellen immers sterk tot de verbeelding. Maar met een voorspelling van criminaliteit alleen zijn we er nog niet.?Sterker, het gaat juist om wat er vervolgens mee gedaan wordt. In onderstaand?rapport benadrukken de auteurs dan ook predictive policing als een nieuw intelligence-initiatief, waarbij het vooral gaat om veranderende werkprocessen. Ze?ontwikkelden hiervoor een procesmodel en onderwierpen vervolgens alle stappen, van data naar resultaat, aan een nader onderzoek. Hoe goed een voorspelling immers ook mag zijn, het resultaat staat of valt met wat er vervolgens mee gedaan wordt.

pp2

Lees of download hier het rapport:

[slideshare id=73217737&doc=predictivepolicing-lessenvoordetoekomst-170316163022&type=d]

Bronnen: Politieacademie

Buienradar voor boeven

ProKidx

Onderstaand artikel van Kaya Bouma is eerder gepubliceerd in De Groene Amsterdammer

‘Kijk me aan!’ Howard Marks, de man die net nog op het punt stond zijn vrouw en haar minnaar te lijf te gaan met de keukenschaar, ligt gevangen in de houdgreep van een politieagent. Het is exact vier minuten over acht ’s morgens. De vloer is bezaaid met glas. ‘Mr. Marks, bij volmacht van de afdeling PreCrime van Washington D.C. arresteer ik u voor de toekomstige moord op mrs. Marks en mr. Dubin, die vanmorgen plaats zou vinden om vier minuten over acht.’

precogs

We schrijven het jaar 2054. Misdaad bestaat niet meer. Drie helderzienden op sterk water, gekoppeld aan een ingenieus computersysteem, voorspellen wie wanneer een moord gaat plegen. Aan politieagent en protagonist Tom Cruise de taak om de criminelen in spe in de kraag te vatten v??r ze de fout in gaan. ‘Is er eigenlijk wel sprake van moord als de daad zelf niet gepleegd is?’ vraagt Colin Farrell in de hoedanigheid van kritisch inspecteur. ‘Het feit dat je iets voorkomt wil niet zeggen dat het niet zou gebeuren wanneer je niet had ingegrepen’, kaatst Cruise terug. Kort daarna rolt de politieagent zelf als toekomstig moordenaar uit het systeem en heeft hij een groot probleem.

Steven Spielbergs Minority Report gaat wellicht niet de geschiedenis in als zijn grootste meesterwerk, maar de film uit 2002 haalt nog zeker wekelijks het nieuws. Zodra het over iets nieuws en futuristisch gaat, gaat het over Tom Cruise en zijn drie telepaten in een badkuip. Meestal is dat niet in positieve zin. De actiefilm geldt voor velen als schrikbeeld van een toekomst waarin privacy non-existent is en de politie in de hoofden van burgers kruipt. Des te opvallender dat het omgekeerde geluid ook steeds vaker te horen is: veiligheidsorganisaties mogen graag naar de film verwijzen als inspiratiebron voor het optuigen van een vergelijkbaar voorspellend systeem – minus de helderzienden weliswaar.

Predictive policing heet dat: het voorspellen van misdaad op basis van grote hoeveel?heden data. En dat is niet iets van een verre toekomst. Politiekorpsen overal ter wereld, inclusief Nederland, maken er al gebruik van.

De kristallen bol is de misdaadbestrijding binnengedrongen. Daarbij wordt de blik steeds verder op de toekomst gericht. De allernieuwste ontwikkeling: preventief straffen. De Amerikaanse staat Pennsylvania werkt momenteel aan een systeem dat rechters helpt bij het bepalen van de strafmaat. Op basis van onder meer iemands criminele verleden (eerdere arrestaties en veroordelingen), geslacht, leeftijd en postcode wordt een voorspelling gedaan over zijn toekomstige wandaden. Is de kans statistisch gezien groot dat een dader ooit opnieuw een vergrijp pleegt, dan kan hij bij voorbaat extra zwaar gestraft worden. Andersom kan een dader aan wie een hemelsblauwe toekomst wordt toegedicht strafvermindering krijgen.

De techniek voor dit soort orakelwerk is al ruimschoots voorhanden. Grote techbedrijven buitelen de laatste jaren over elkaar heen in een wedloop van voorspellende software, waarbij de mogelijkheden duizelingwekkende proporties aannemen. Zo belooft IBM?politiekorpsen preventief naar de crime scene te leiden. In een bijbehorend reclamefilmpje staat een politieagent op z’n dooie gemak, koffie erbij, een overvaller op te wachten die op het punt staat toe te slaan.

Het Amerikaanse veiligheidsbedrijf Intrado ontwikkelde Beware, een systeem dat op basis van onder andere iemands adres, uitingen op sociale media en een eventueel strafblad voorspelt hoe groot de kans is dat hij een misdaad begaat. Een 42-jarige Afghanistanveteraan met PTSS?en een strafblad, die op Facebook schrijft over zijn oorlogservaringen? Het levert een dreigingsscore op van 67 van de 100 punten. Microsoft werkt aan een programma dat niet alleen criminaliteit van ver kan zien aankomen, maar ook van elke individuele gevangene kan voorspellen hoe groot de kans is dat hij of zij, eenmaal op vrije voeten, opnieuw de fout in zal gaan.

Politiekorpsen zijn er blij mee. In onder andere de Verenigde Staten, China, Brazili?, het Verenigd Koninkrijk, Duitsland, Zwitserland en Belgi? wordt met predictive policing gewerkt. Amerika loopt voorop: minstens zestig steden gebruiken een of meer vormen van voorspellende software. ‘Minority Report uit 2002 is de realiteit van vandaag‘, zei William Bratton, hoofd van de politie in New York, vorig jaar tijdens een debatavond over big data en veiligheid.

In Nederland neemt predictive policing ook ‘een enorme vlucht’, schrijven onderzoekers van TNO?in een recente publicatie over het onderwerp. Zo heeft de politie een systeem ontwikkeld dat inbraak en straatroof kan voorspellen. In samenwerking met de Universiteit Twente is informatiegestuurde luchtsteun opgezet: politiehelikopters vliegen preventief naar plekken waar high impact crime als overvallen en inbraken verwacht wordt. De politie werkt ook samen met commerci?le aanbieders van voorspellende software, maar noemt geen namen.

Volgens oud-politiemedewerker Rutger Rienks behoort Nederland internationaal tot de voorhoede. Als afdelingshoofd business intelligence bij de politie was Rienks de afgelopen jaren betrokken bij de eerste stappen naar voorspellend politiewerk. ‘Als je als overheids- of politieorganisatie criminaliteit op deze manier kunt uitbannen, dan lijkt mij dat een droom waar je je hard voor moet maken.’

Het is een omstreden droom. De Nationale Politie kreeg in oktober een Big Brother Award uitgereikt vanwege haar activiteiten rondom predictive policing. Met de prijs zet privacy-voorvechter Bits of Freedom jaarlijks ‘de grofste privacy-schenders’ in de schijnwerpers. Uit het juryrapport: ‘De politie van de toekomst houdt iedere burger non-stop en nauwlettend in de gaten. Daar zijn ze nu al mee begonnen.’ Criminoloog Marc Schuilenburg waarschuwt voor een politie die al te diep in de kristallen bol probeert te kijken: ‘Het gevaar is dat je uitkomt bij een gedachtenpolitie die steeds meer in de stoel van de psychiater gaat zitten en probeert criminele intentie te lezen in bepaald gedrag.’

Ook onderzoekers die zelf met voorspellings?modellen werken zijn kritisch. ‘Wij krijgen wel eens de vraag of we niet met heel evil technologie bezig zijn’, zegt Arnout de Vries. Als onderzoeker bij TNO?werkt hij aan verschillende experimenten rond predictive policing. ‘Misschien is dat wel zo, ja. Maar als je als overheid stil blijft staan en denkt: we houden deze enge technologie liever buiten de deur word je links en rechts door bedrijven ingehaald en sta je nergens. Je ziet politiewerk nu al privatiseren.’

In de VS ligt predictive policing al langer onder vuur. Tegenstanders waarschuwen behalve voor privacy-schending voor de groeiende macht van bedrijven die dit soort veiligheidssystemen aanbieden. De techniek zou bovendien leiden tot etnisch profileren, omdat de voorspellingen vooroordelen in de gebruikte data reflecteren.

Een alomtegenwoordige gedachtenpolitie, nog racistisch ook. Het klinkt nogal onheilspellend. Maar is het dat ook? Er is in Nederland nog weinig bekend over predictive policing. De politie geeft maar mondjesmaat informatie prijs. Wat gebeurt er al? Hoe werkt het precies? En wat kunnen we ervan verwachten?

Mark Jules klapt zijn laptop open en weet wat de toekomst in petto heeft. Jules is vice-president Public Safety Visualization bij multinational Hitachi en zodoende binnen de multinational de man met de glazen bol. Hij is vanmorgen overgevlogen uit Philadelphia en zit nu, zonnebril nog in het schouderlange stroblonde haar, in de bedrijfskantine van Hitachi Data Systems in Zaltbommel. Jules is in Nederland om te praten met ‘ge?nteresseerde partijen’ over de predictive-policingsoftware die het bedrijf sinds kort aanbiedt.

‘Even kijken’, hij zoomt in op de kaart van Washington D.C. en beweegt met zijn muis langs een rijtje delicten: diefstal, fraude, gewelddadige overvallen. De keuze valt op ‘sex crimes’. De kaart van de Amerikaanse hoofdstad, in rasters opgedeeld, kleurt hier en daar donkerrood. In die dieprode vierkantjes, elk goed voor twee huizenblokken, gaat het de komende 24 uur gebeuren. Om erachter te komen wat precies klikt Jules op een van de gekleurde vierkantjes. ‘In dit blok is de kans op een zedendelict vandaag 47 procent.’ Het is dat dit een demo-versie is, zegt Jules, anders kon hij per adres een gedetailleerde voorspelling geven.

Dit is predictive policing in de praktijk: een zo precies mogelijke kansberekening, uitgezet op een kaart. Buienradar, maar dan voor boeven. Het systeem van Hitachi is exemplarisch voor de meeste vormen van voorspellende software. Vertrekpunt: een flinke berg data van een stad of buurt. Historische criminaliteitscijfers, sociaal-geografische informatie over inwoners, adressen van bekende overtreders, data afkomstig van sociale media, het weer, het nieuws. Hoe meer hoe beter, liefst gecombineerd met een netwerk van slimme camera’s die in staat zijn gezichten te herkennen en geluidssensoren die geweerschoten detecteren. Zelflerende algoritmes zoeken vervolgens naar patronen. Blijkt er als het regent stelselmatig minder te worden ingebroken, dan wordt die informatie meegenomen in een voorspelling.

‘Ons systeem vindt correlaties die je als mens nooit gezien zou hebben’, zegt Jules. ‘In een van de steden waar wij werken blijkt rond fietsenrekken meer criminaliteit gepleegd te worden. Geen flauw idee waarom dat zo is. Maar zolang het een betrouwbare voorspelling oplevert, zijn wij tevreden.’ Een voorspelling van Hitachi komt volgens Jules in ongeveer 75 procent van de gevallen uit. ‘Dat is vijftien procent beter dan de meeste andere voorspellingsproducten.’ Of dat waar is, valt niet te controleren. Onafhankelijk onderzoek naar verschillende predictive systemen is nog niet gedaan.

Wordt er in Nederland al met de voorspellende software van Hitachi gewerkt? vraag ik.

‘Nee’, zegt Jules. ‘We werken alleen in de VS.’

‘Jawel hoor’, zegt persvoorlichter Bastiaan van Amstel even later, als Jules door is naar zijn volgende afspraak. ‘We mogen alleen niet alles zeggen. Niet alle partijen voor wie wij werken willen publiekelijk bekendmaken dat ze hiermee bezig zijn.’ Volgens de persvoorlichter zegt Jules daarom voor alle zekerheid niks. ‘Maar ik kan je vertellen dat deze software al op meerdere plekken in Nederland wordt uitgeprobeerd.’ Waar precies? Op hoeveel plekken? En voor wie?

‘Het aantal pilots is op ??n hand te tellen’, zegt Van Amstel. ‘We werken nog niet voor private bedrijven, het gaat om overheidspartijen.’ Met een mysterieuze glimlach: ‘Meer kan ik ?cht niet zeggen.’ Het is typerend voor het onderwerp. Predictive policing is in Nederland in nevelen gehuld. De politie maakt niet bekend met welke commerci?le instellingen wordt samen?gewerkt. Bedrijven kunnen op hun beurt vanwege geheimhoudingsovereenkomsten niet zeggen aan wie ze hun diensten verkopen.

Volgens de Amsterdamse korpschef Pieter-Jaap Aalbersberg moet het debat over predictive policing in alle openheid worden gevoerd. ‘Stel dat wij huiselijk geweld jegens kinderen kunnen voorspellen’, zei hij in oktober bij de uitreiking van de Big Brother Award. ‘Willen we dat? Het dilemma van het kind dat klappen krijgt tegen de methodiek die erachter zit. Dit zijn de debatten waar wij als politie zelf ook mee worstelen.’ Daarom is maatschappelijke discussie over het onderwerp ook zo belangrijk, zegt de korpschef. ‘Het gaat om openheid, want zonder maatschappelijk debat en democratisch besluit ben je niet een democratische samenleving.’

Toch wijst de politie meerdere interview?verzoeken af. Dat is niet uit onwil, zegt een persvoorlichter. ‘Het is nog te vroeg om naar buiten te treden. We zijn momenteel een belangrijke pilot rond predictive policing aan het afronden.’ Pas als er duidelijke cijfers en definitieve plannen zijn, is het tijd voor de pers. Om dezelfde reden wil de politie niet zeggen welke projecten er al lopen of hoeveel er al in wordt ge?nvesteerd.

Toch valt er op basis van gesprekken met betrokkenen en publicaties die recent over het onderwerp zijn verschenen een beeld te vormen van wat er al gebeurt. De politie werkt, zo blijkt, aan minstens acht projecten rond predictive policing. Daarbij gaat het deels om pilots en deels om systemen met voorspelcapaciteiten die al in gebruik werden genomen voor de bijbehorende allitererende modeterm kwam overwaaien uit de VS. De politie opereert zowel zelfstandig als met hulp van buitenaf. Zo wordt er bijvoorbeeld samengewerkt met TNO, dat ook voor de AIVD?en MIVD?de mogelijkheden van voorspellingen op basis van big data verkent.

Een rondgang langs grote spelers levert een rijtje bedrijven op die in Nederland al actief zijn. Zo is volgens een woordvoerder behalve Hitachi ook IBM, een van de marktleiders in de voorspellingsindustrie, ‘betrokken’ bij predictive-?policingprojecten. ‘We kunnen geen uitspraken doen over welke korpsen of over de aard van de projecten.’ Zakelijk dienstverlener Deloitte heeft net een pilot voor de politie afgerond, vertelt medewerker Maurice Fransen. ‘We hebben een soort buienradarkaart van Nederland gemaakt, waarmee je twee weken vooruit kunt zien in welke wijk we inbraken kunnen verwachten.’ De politie wil het model volgens hem ook inzetten voor andere vormen van criminaliteit.

Ook het Franse consultancybedrijf Cap?gemini werkt aan voorspellende projecten, valt af te leiden uit de Nationale Innovatieagenda Veiligheid 2015. Daarin wordt het ‘herkennen en voorspellen van afwijkend gedrag’ een landelijk innovatiespeerpunt genoemd. Cap?gemini gaat een voortrekkersrol vervullen, staat te lezen. Wat dat in de praktijk betekent wil het bedrijf niet zeggen. ‘Vraag maar na bij de politie.’

Met kop en schouders het opvallendste initiatief is de samenwerking met de Nederlandse start-up Pandora Intelligence uit het Gelderse Elst. Mede-oprichter Peter de Kock, ooit filmmaker en nu recherchekundige bij de politie, deed een paar jaar geleden promotieonderzoek naar het voorspellen van terrorisme en kwam met een onorthodoxe aanpak. De Kock legde een database aan van zo’n tweehonderdduizend terroristische incidenten die wereldwijd plaatsvonden en combineerde die met een database van filmscenario’s, boeken en theaterstukken waarin terrorisme voorkomt, opgebroken in scenario-elementen. Fictie kan volgens De Kock een krachtige voorspeller zijn. ‘Neem bijvoorbeeld de aanslagen van 11 september. Een vliegtuig dat zich in een wolkenkrabber boort, zoiets had de Amerikaanse schrijver Tom Clancy al jaren eerder beschreven in een van zijn boeken.’

Zie hieronder het interview dat hij gaf op de dag van zijn promotie in De Wereld Draait Door, met de kern van zijn onderzoek: ??wij zijn [?] nu voor de eerste keer in staat om heel veel data te genereren, heel veel data te wassen [?] Tot voor kort was het belangrijk wie dat opsporingsonderzoek leidde en of die de juiste kennis had. Nu kun je die kennis apart in een database zetten en iedereen heeft daar toegang toe die je daar toegang toe verleent. En dat gaat diegene helpen die de interpretatie moet maken.?

De aanpak is veelbelovend. De Kock liet zijn algoritmes voorspellingen doen op basis van terroristische incidenten die gepleegd waren voor 2007 en vergeleek de uitkomsten met aanslagen die werkelijk plaatsvonden na 2007. Zijn systeem bleek in sommige gevallen vijftig tot zeventig procent beter te kunnen voorspellen dan gangbare methodiek. Dat zijn bijzondere scores bij een ongrijpbaar verschijnsel als terrorisme. Niet gek dus dat veiligheidsorganisaties wereldwijd De Kock weten te vinden. ‘Telkens als er een klap is ergens in het Westen gaat bij mij de telefoon: je moet n? komen praten.’ Ook grote softwarebedrijven als IBM?en Oracle hebben interesse getoond. Toch heeft de politiemedewerker ervoor gekozen zijn voorspeller vooralsnog alleen in te zetten voor zijn eigen werkgever. Dit jaar nog koppelt hij zijn databases aan die van de politie en kan het betere orakelwerk beginnen.

Dat betekent overigens niet dat er straks spontaan een naam, een moordwapen en een locatie uit het systeem komt rollen, zegt De Kock: ‘Het werkt eerder zo: stel, een omstreden politicus houdt een boeksigneersessie, of Obama bezoekt Nederland. Dan kan mijn systeem straks alle potenti?le scenario’s bedenken van mogelijke daders en hun werkwijze.’ Daar kan de politie zich dan alvast op voorbereiden.

Maar dat is later. Wat de politie op dit moment zonder hulp van buitenstaanders onderneemt weet Rutger Rienks, een van de grondleggers van predictive policing in Nederland. Rienks, een jongensachtige dertiger, werkte tot een half jaar geleden bij de politie. Hij schreef voor de politieacademie het boek Predictive Policing: Kansen voor een veiligere toekomst, dat vorig jaar verscheen. Inmiddels werkt Rienks voor de gemeente Amsterdam, maar hij wil best nog eens vertellen over zijn ervaringen bij de politie. Want ja, hij is enthousiast. ‘Ik zie kansen, nou en of. Predictive policing kan ons een hele hoop ellende besparen. Er zitten natuurlijk allerlei haken en ogen aan, maar als je vertrouwen hebt in de modellen die die voorspellingen doen en ze goed toetst, dan kun je een hoop narigheid voorkomen.’

Die haken en ogen, daar heeft de oud-?politiemedewerker nog een leuk verhaal over met een poedel in de hoofdrol. Maar dat komt straks, eerst de voorspellende systemen. Rienks noemt in zijn boek een aantal voorbeelden. Het absolute paradepaardje van de politie is het zogenoemde Criminaliteits Anticipatie Systeem (CAS), dat in 2012 door de Amsterdamse politiemedewerker Dick Willems is ontwikkeld. Door het combineren van onder meer historische criminaliteitscijfers met CBS-data (denk aan inkomensgegevens, uitkeringen, gezinssamenstelling) en adressen van bekende verdachten kan de politie woninginbraken en straatroven voorspellen. Het systeem is in staat ongeveer veertig procent van de woninginbraken en zestig procent van de straatroven te voorspellen. Het cas wordt inmiddels uitgetest in vier steden, het streven is het systeem over heel Nederland uit te rollen. Ook internationaal is de belangstelling gewekt. Vertegenwoordigers uit onder andere Canada en Turkije zijn al op bezoek geweest om er meer over te weten te komen.

In onderstaande uitzending van Factchecker legt Dick Willems van de politie Amsterdam uit hoe het globaal werkt (na ongeveer 9 minuten in de uitzending). Zie ook?hier.

Een vergelijkbaar systeem in samenwerking met de Universiteit Twente stuurt helikopters preventief af op plekken waar veel misdaad wordt verwacht op basis van historische cijfers. Net als bij de meeste vormen van predictive policing gaat het daarbij om high impact crimes als inbraak, overvallen en straatroof. Deze vormen van criminaliteit hebben prioriteit binnen de politie, bovendien laten ze zich makkelijk voorspellen omdat ze relatief veel voorkomen.

protective_20policiagente

Twee andere projecten van de politie vallen op omdat ze voorspellingen doen over individuen. ProKid, een signaleringsinstrument dat in 2013 landelijk werd ingevoerd, voorspelt van kinderen tot twaalf jaar wie de grootste kans maakt op te groeien tot delinquent. Risicotaxatie-instrument RTI-Geweld schat van elke persoon die bij de politie bekend is (bijvoorbeeld vanwege betrokkenheid bij een incident) hoe groot de kans is op toekomstig geweld. ‘Bepaalde vroeger het aantal delicten dat iemand had gepleegd of hij boven aan de lijst kwam’, schrijft politiemedewerker Remco van der Hoorn in het boek van Rienks, ‘nu is dat het feit of hij het grootste risico laat zien in de toekomst weer over de schreef te gaan.’

Tijd voor het verhaal met de poedel. Daarvoor moeten we nog ??n vorm van predictive policing leren kennen: het voorspellen van drugssmokkel. Door gegevens over kentekens en reis?patronen te combineren kan de politie sinds 2011 auto’s opsporen waarvan de kans statistisch gezien groot is dat er drugs mee gesmokkeld wordt. Die aanpak werpt zijn vruchten af: door de controle te focussen op de voertuigen die de computer aanwijst, is het aantal gevonden grammen hero??ne per gecontroleerd voertuig van 5 naar 1027 gestegen. Rienks: ‘Het werkt erg goed. Maar het gaat ook wel eens mis.’

Zo kon het dat een poos geleden een verdachte auto op de snelweg in de buurt van Rotterdam met veel toeters en bellen werd klemgereden. De bestuurder bleek geen drugssmokkelaar, maar een geschokte oudere dame die net een spuitje voor haar poedel had gehaald. Haar pas aangeschafte tweedehands auto was, zo werd later duidelijk, van een smokkelaar geweest. Het nummerbord stond daarom nog in het systeem. De route die ze die dag reed paste toevallig precies in een verdacht reispatroon. ‘De mevrouw heeft een bosje bloemen gekregen als excuses. Maar zo zijn er natuurlijk wel meer verhalen.’

Het incident met de poedel is een goed voorbeeld van een van de nadelen van predictive policing: de kans op foute positieven. Dat zijn personen, plekken of situaties die ten onrechte als risico worden aangemerkt. Bij de ingebruikname van een nieuw systeem kan dat veel voorkomen. Zo bleek bij de evaluatie van de eerste pilots met ProKid dat meer dan ??n op de drie kinderen (36 procent, in totaal 902 kinderen) ten onrechte als risicokind werd aangemerkt door systeem- of registratiefouten. Ze werden door de computer geselecteerd op basis van incidenten die volgens de betrokken wetenschappers ‘irrelevant’ waren, staat te lezen in een evaluatie uit 2011. Dit soort fouten zijn, ook als een systeem al verder ontwikkeld is, moeilijk helemaal uit te sluiten, zegt Rienks. ‘Er bestaan altijd uitzonderingscategorie?n. Een jongeman in een veel te dure auto kan bijvoorbeeld een crimineel lijken, maar het kan ook een professioneel voetballer zijn.’

De uitzondering op de regel: het is ook een van de bezwaren van universitair docent criminologie Marc Schuilenburg van de Vrije Universiteit. Schuilenburg schreef een aantal artikelen over predictive policing en is, zacht gezegd, geen fan. De lijst met problemen die hij voorziet is lang. Om met de basis te beginnen: wetenschappelijk bewijs dat voorspellend politiewerk werkt is dun gezaaid. ‘Bij voorspellingen over plaatsen lijkt het er inmiddels wel op dat het effect kan hebben’, zegt hij. ‘Je ziet in internationale literatuur dat de criminaliteit afneemt als de politie extra gaat surveilleren in een wijk waar veel misdaad wordt verwacht. Hoewel het risico bestaat dat de criminaliteit zich verplaatst naar een andere wijk.’

Een stuk ingewikkelder wordt het als het om personen gaat. ‘Het is nog maar helemaal de vraag of je op basis van algoritmes kunt bepalen wie een misdaad gaat plegen.’ Daarbij zijn de risicoprofielen die veiligheidsorganisaties gebruiken volgens Schuilenburg te breed: ‘Je ziet dat er te veel personen aan de criteria voldoen. Dat levert een enorm lange lijst individuen op, die de politie onmogelijk allemaal in de gaten kan houden. Neem de aanslagen in Parijs en Brussel: alle daders bleken achteraf al in de kaartenbakken te zitten.’

Belangrijker nog: de gegevens waar voorspellingen op gebaseerd zijn, zijn niet altijd van goede kwaliteit. ‘De politiedata die gebruikt worden zijn vaak vuil. Het zijn haastig gemaakte notities of halve verwijzingen.’ Hoe slechter de data, hoe onbetrouwbaarder de voorspelling, wil de criminoloog maar zeggen. Zo staat in een verantwoordingsrapport uit 2014 over het eerder genoemde RTI-Geweld te lezen dat de gegevens waarop de voorspellingen zijn gebaseerd ‘soms erg vervuild’ zijn. ‘Als voorbeeld: iemand die als verdachte aan een incident is gekoppeld, hoeft dit in werkelijkheid niet geweest te zijn.’

boeven buienradar

Bovendien kunnen de data gekleurd zijn. Daarmee komt Schuilenburg op een vaak gehoorde klacht in de VS: predictive policing zou leiden tot etnisch profileren. ‘Er mogen allerlei slimme algoritmes aan te pas komen, daarmee zijn voorspellende modellen nog niet neutraal.’ De historische criminaliteitscijfers die bij predictive policing standaard worden gebruikt, kunnen bepaalde vooroordelen bevatten, bijvoorbeeld omdat sommige bevolkingsgroepen vaker worden opgepakt voor hetzelfde delict dan andere. Als een algoritme daar patronen in gaat zoeken, kunnen diezelfde vooroordelen weer uit het systeem rollen. Een voorspelling die zichzelf waarmaakt. Schuilenburg: ‘Dat zie je nu ook al gebeuren bij zo’n inbraakvoorspeller van de politie. Daar komen altijd wijken uit waar mensen wonen die al veel met de politie in aanraking zijn gekomen.’

De Wetenschappelijke Raad voor het Regeringsbeleid (WRR) waarschuwt ook voor dit zelfversterkende effect. De raad deed de afgelopen twee jaar in opdracht van de regering onderzoek naar het gebruik van big data door veiligheids?instellingen; eind april verscheen het onderzoeksrapport. Predictive policing komt daarin ook aan bod. ‘Een wijk waarin veel gesurveilleerd wordt, zal prominenter terugkomen in de criminaliteitscijfers. De extra aandacht vergroot de bestaande problemen verder uit, hetgeen weer de basis voor nieuw beleid kan zijn, dat op zijn beurt het (negatieve) beeld verder versterkt.’

Nonsens, vindt Jeffrey Brantingham. ‘Burgers doen aangifte van misdaad bij de politie. Als de politie die gegevens vervolgens gebruikt om preventief in bepaalde buurten te surveilleren en daarmee een buurt veiliger te maken, doet ze toch precies wat de maatschappij vraagt?’

Het is niet de eerste en zeker niet de laatste keer dat Brantingham gevraagd wordt naar de schaduwkant van zijn voorspellingsmodellen. De hoogleraar antropologie in Los Angeles stond hoogstpersoonlijk aan de wieg van predictive policing. ‘Dat was niet gepland: ik deed onderzoek naar iets anders, maar er kwam een techniek uit waar de politie naar smachtte.’ Brantingham onderzocht voor het Amerikaanse leger modellen om aanvallen van rebellen en mogelijke burgerslachtoffers in Irak te voorspellen. Dezelfde software bleek inbraken en straatroof te kunnen voorzien.

Inmiddels staat Brantingham aan het hoofd van een indrukwekkend voorspellings?imperium: PredPol, een bedrijf dat in de VS alleen al in zestig steden actief is en ook in het Verenigd Koninkrijk software verkoopt. De Nederlandse politie heeft ook interesse, zegt Brantingham tijdens een flitsbezoek aan Den Haag. ‘Er zijn gesprekken geweest, maar nog niets formeels.’ Wat betreft die kwestie rond etnische profilering, daar kan de hoogleraar kort over zijn. ‘PredPol maakt geen gebruik van persoonsgegevens. We kijken alleen waar en wanneer iets gebeurd is.’ Racisme, met andere woorden, is uitgesloten. ‘Gemeenschappen krijgen meer politiesurveillance als ze vaker aangifte doen. Ze krijgen dus precies de aandacht waar ze om vragen.’

Toch kan die manier van werken indirect hetzelfde effect hebben, zegt Schuilenburg. Buurten met een slechte reputatie en veel politieaandacht komen eerder als risicolocatie uit de bus. Het gevolg is nog meer politieaandacht, die mogelijk gepaard gaat met etnisch profileren. ‘De politie pakt nu eenmaal eerder een Marokkaan in een hoody op dan iemand zoals ik in een maatpak.’ Dat werd vorige week duidelijk toen Typhoon werd aangehouden. De politie vond de dure auto waarin de rapper van Surinaamse afkomst reed in combinatie met zijn huidskleur verdacht.

De WRR?benoemt daarbij nog een probleem: bij wie ligt de verantwoordelijkheid als een voorspelling de plank volledig misslaat? ‘Aangezien de discriminatie in veel gevallen niet intentioneel is en niet met opzet in het algoritme ingeschreven wordt door de computerprogrammeurs zal het zeer moeilijk te achterhalen zijn wie verantwoordelijk is voor het probleem en om dit te bewijzen in een rechtszaak.’

Op naar Den Haag. Daar wordt op een zogeheten ‘verboden plaats’ gewerkt aan voorspellende modellen. Die verboden plek is een locatie van onderzoeksinstituut TNO?waar aan staats?geheimen wordt gesleuteld. Onderzoekers werken er bijvoorbeeld in opdracht van defensie. Bezoekers moeten hun telefoon bij de receptie achterlaten en mogen alleen onder begeleiding door het gebouw lopen. Het is ook de plek waar Selmar Smit en Arnout de Vries onderzoek doen naar verschillende modellen voor politie en veiligheidsdiensten. De Vries: ‘We proberen uit te zoeken hoe ver we kunnen gaan met voorspellen. Meer kunnen we er niet over zeggen.’

Toch heeft het duo een hoop te vertellen. De onderzoekers publiceerden eind april samen met twee andere collega’s een uitgebreid rapport over predictive policing. ‘Criminelen zijn gewoontedieren’, zegt De Vries. ‘Daardoor kun je makkelijk patronen zien in veel voorkomende vormen van misdaad.’ Hoewel er volgens collega Smit nog meer wetenschappelijk onderzoek moet komen, ‘is het aannemelijk dat predictive policing werkt’. Op dit moment doet tno alleen onderzoek voor overheidspartijen. ‘Maar vanuit de private sector bestaat veel interesse.’ Met name verzekeraars en particuliere beveiligingsbedrijven zien wel brood in een kijkje in de toekomst.

De technologie is veelbelovend, vinden de onderzoekers. Maar ze maken zich ook zorgen. Zo is er de privacy-kwestie. ‘Een goede voorspeller voor inbraken zijn de adressen van bekende inbrekers die net uit de gevangenis komen’, zegt Smit. ‘Maar ja, ze hebben hun straf al uitgezeten. Mag je die gegevens toch gebruiken?’ Andere kwestie: voor het doen van goede voorspellingen zijn data nodig, v??l data. Dat vereist al snel dat meerdere datasets aan elkaar worden gekoppeld. De Vries: ‘Dat is een enorm probleem. Die informatie heb je ooit verzameld met een bepaald doel en nu ga je het ineens voor een ander doel gebruiken, het voorspellen van misdaad.’

Privacy en het verzamelen van grote hoeveelheden data staan per definitie met elkaar op gespannen voet, staat te lezen in het eerder genoemde wrr-rapport. De wet schrijft voor dat gegevens niet voor een ander doel gebruikt mogen worden dan waarvoor ze verzameld zijn, ?n dat er niet meer gebruikt mag worden dan strikt noodzakelijk is. Het grote voordeel van big data-onderzoek zit ‘m nou juist in het ongericht verzamelen en combineren van eindeloze hoeveelheden gegevens, waardoor onverwachte patronen kunnen opduiken. ‘Spanningen met privacy en het gegevensbeschermingsrecht zijn daardoor nooit ver weg.’ Wetgeving schiet daarbij te kort. Of, zoals de wrr het formuleert: er is een ‘mismatch’ tussen wetgeving en het gebruik van big data door veiligheidsorganisaties. Regels over het verzamelen van data zijn er al, maar wat er vervolgens met die gegevens gebeurt, de analyse van die data, moet beter gereguleerd worden, vindt de raad.

Een fundamenteler probleem is dat predictive policing ingaat tegen het idee dat een individu onschuldig is tenzij anders bewezen. ‘De politie is eigenlijk van jou de kans aan het berekenen dat jij verdachte zou kunnen zijn’, zegt De Vries. Dat is in strijd met de onschuldpresumptie – een grondbeginsel van het strafrecht. ‘Het is heel moeilijk daar juridisch mee om te gaan.’

Het gevolg kan zijn dat de politie meer vrijheid krijgt om te handelen zonder rechterlijke controle, zegt Marc Schuilenburg. ‘Normaal gesproken heeft de politie toestemming van de rechter-commissaris nodig om bijvoorbeeld een telefoon te mogen aftappen.’ Bij predictive policing ontbreekt die controle. ‘De politie kan mensen op basis van een voorspelling alvast in de gaten gaan houden, zonder dat daar een zuiver juridische grond voor is’, zegt de criminoloog. ‘Het steeds vroeger willen ingrijpen van de politie schept zo een bijna ongebreidelde vrijheid voor de politie zelf.’

De politie zet met voorspellend politiewerk mogelijk te ruim opsporingsbevoegdheden in, zegt ook Bart Schellekens. Hij is onderzoeker Recht en ICT?bij de Raad voor de Rechtspraak, maar reageert op persoonlijke titel. ‘We moeten ons afvragen of dat past binnen de taak van de politie, en of toezicht en transparantie wel goed geregeld zijn.’ Voor Schuilenburg is dat al niet meer de vraag, maar een zorgwekkende constatering. ‘Met predictive policing rolt de politie een digitaal vangnet uit waarin de rechten van burgers volledig ondergesneeuwd raken aan die van onduidelijke opsporingsbelangen.’

Zo mogelijk nog ingewikkelder wordt het als het voorspellend model afkomstig is van een bedrijf dat het niet wil prijsgeven, zegt De Vries. ‘Mijn grootste zorg is uiteindelijk dat bedrijven de markt overnemen. Daar zit veel meer geld en kan veel meer snelheid gemaakt worden met technologie die al voor het oprapen ligt.’ Alle eerder genoemde risico’s, van etnisch profileren tot privacy-schending, nemen volgens de tno-?onderzoekers alleen maar toe als private partijen de boel overnemen, omdat er veel minder druk is om transparant te opereren. Smit: ‘Dan kan er anarchie ontstaan.’

Zo ver is het nog niet. De Vries: ‘Predictive policing groeit hard, maar staat nog in de kinderschoenen. Of de overheid uiteindelijk de overhand gaat krijgen of het bedrijfsleven gaan we zien. Maar dat de geest uit de fles is als het gaat om het voorspellen van misdaad, is wel duidelijk.’

Het is een veel gehoord geluid als het over voorspellend politiewerk gaat: de opmars van de kristallen bol lijkt onomkeerbaar. Sander Klous, hoogleraar big data aan de Universiteit van Amsterdam en adviseur ‘big data analytics’ bij KPMG, publiceerde onlangs een rapport met de veelzeggende titel Iedereen wil uiteindelijk die voorspellende glazen bol. ‘Het werkt met big data net als met tandpasta’, licht de hoogleraar toe. ‘Eenmaal uit de tube kun je proberen het terug te duwen, maar dat gaat niet lukken.’ Minder kleurrijk gezegd: als data eenmaal beschikbaar zijn, is het vrijwel onmogelijk deze weer terug te trekken. En er wordt steeds meer gemeten en gedeeld, niet in de laatste plaats dankzij smartphones en sociale media. Het valt te verwachten dat daar, nu voorspellingstechniek ?royaal voorhanden is, alleen maar meer gebruik van gemaakt zal worden.

Het sluipende gevaar is wat de WRR?’data?determinisme’ noemt. Het risico dat individuen worden beoordeeld op basis van wat statistisch gezien aannemelijk is dat ze gaan doen, in plaats van wat ze feitelijk gedaan hebben. Marc Schuilenburg heeft er een andere, meer dramatische term voor: ‘de gedachtenpolitie’ – een politieorganisatie meer gericht op intentie dan op de daad zelf. De verschuiving naar intentie is volgens Schuilenburg deel van een bredere ontwikkeling. ‘Het klassieke strafrecht in Nederland was een daadstrafrecht. Er moest een fysieke handeling hebben plaatsgevonden voordat iemand strafbaar was.’ Dat wordt de laatste twintig jaar steeds verder losgelaten. Voorbereidingshandelingen zijn bijvoorbeeld strafbaar geworden. ‘Als ik met een kalasjnikov in m’n hand en een plattegrond van een bank in m’n zak over straat loop, is dat genoeg voor een veroordeling.’ De daad zelf is daarmee opgerekt tot de voorbereiding ervan. ‘Het gevaar is dat de politie steeds eerder in het hoofd van mensen probeert te kruipen, aan bepaalde gedragingen conclusies gaat verbinden en al ingrijpt voor er iets gebeurd is. Terwijl: het is altijd de vraag of die persoon wel tot die daad was gekomen als je niets had gedaan.’

Daarmee raakt Schuilenburg aan de kern van veel vraagstukken rond voorspellend politiewerk: wat als iemand iets anders doet dan verwacht? Het is het klassieke thema van veel sciencefictionfilms en -boeken: predestinatie versus vrije wil. Tom Cruise krijgt er halverwege Minority Report mee te maken. Volgens de helderzienden staat hij deze keer zelf op het punt een man te vermoorden. De daad lijkt onontkoombaar, de politieagent gelooft heilig in zijn voorspellingsmethode. Hij zal ook bijna wel moeten: als hij de moord niet pleegt is hij het levende bewijs dat zijn methodiek niet werkt. ‘Je hebt w?l een keuze’, fluistert een van de helderzienden hem in.

Dat dit soort onwerkelijke dilemma’s geen volslagen fictie meer zijn, bewijst het voorbeeld uit Pennsylvania. Als de staat inderdaad een rekenmodel invoert dat rechters de strafmaat helpt bepalen, dan worden daders preventief afgerekend op een statistisch gegeven. De kans op recidive wordt met behulp van een punten?systeem berekend, aan de hand van onder andere historische criminaliteitsgegevens. Man-zijn alleen al levert daarbij meer punten op, omdat er nu eenmaal vaker mannen dan vrouwen worden veroordeeld. Hetzelfde geldt voor leeftijd: een jongere is een groter risico dan iemand van boven de veertig. Zelfs de woonplek telt mee: een stadsmens gaat vaker de fout in dan een plattelandsbewoner en kan dus strenger worden gestraft. Cijfermatige voorbestemming gaat zo zwaarder wegen dan vrije wil – de kans dat iemand iets anders doet dan wat statistisch voor de hand ligt.

Dezelfde kwestie in een andere vorm speelde bij de Amerikaan Robert McDaniel. In de zomer van 2013 stonden er drie agenten op de stoep van de toen 22-jarige inwoner van Chicago. De stad had net een voorspellend model in gebruik genomen dat moest bepalen welke inwoners de grootste kans maakten betrokken te raken bij een gewelddadig incident. McDaniel stond op de lijst en kreeg prompt bezoek van de politie. De boodschap: we houden je in de gaten, nog ??n misstap en de gevolgen zijn groot. Het incident haalde de krant omdat niet duidelijk was hoe de jongen op de lijst was beland, aangezien hij behalve een aantal arrestaties voor kleine vergrijpen (waaronder het roken van wiet) een schone lei had. ‘Ik heb niets m??r gedaan dan elke andere jongere die in deze buurt opgroeit’, zei McDaniel destijds in de Chicago Tribune. De doorslaggevende factor was waarschijnlijk dat hij wel vrienden had met een uitgebreid strafblad. Omdat sociale netwerken een goede voorspeller van gedrag zijn, telden die mee.

‘Zien we in de Nederlandse rechtbanken binnenkort ook Pennsylvaniaanse toestanden?’ vroeg de minister van Veiligheid en Justitie Ard van der Steur onlangs retorisch bij de ontvangst van het WRR-rapport over big data en veiligheid. ‘Ik zal het nog eens navragen bij de Raad voor de Rechtspraak, maar ik vermoed van niet.’ Tegelijkertijd moeten we ons door dit soort ‘dystopische’ voorbeelden niet laten afschrikken van de mogelijkheden die big data bieden op het gebied van veiligheid, vindt de minister. ‘Als de negentiende-eeuwse boer die zo’n nieuwerwetse trein langs zijn wei vol koeien ziet denderen en denkt: verdomd, straks wordt de melk zuur.’

Dat Nederland die behoudende boer in elk geval niet is, blijkt uit het WRR-onderzoek. Wat de gevolgen daarvan zijn, zal moeten blijken. Volgens Van der Steur moeten we vooral realistisch zijn. ‘Wat geldt voor de zelfrijdende auto’s en drones geldt ook voor big data: het is niet de vraag of het onderdeel wordt van ons dagelijks leven, maar hoe we het vormgeven.’

Dit artikel kwam tot stand met steun van Fonds 1877

[slideshare id=61354641&doc=104tnorpredictivepolicingweb-160426065651&type=d]
[slideshare id=46552302&doc=predictivepolicing-kansenvooreenveiligeretoekomst-150401143504-conversion-gate01&type=d]

Bronnen: De Groene Amsterdammer

Terrorisme voorspellen met big data: handlezen voor gevorderden

?knmi
In Vrij Nederland het volgende?artikel?van Gerard Janssen over big data en de voorspelmogelijkheden van terrorisme.
Als je veel data slim gebruikt, kun je tegenwoordig ?voorspellen wie wat gaat doen en wat waar gebeuren gaat. Terrorismebestrijders kunnen daar hun voordeel mee doen. Maar er schuilen ook gevaren: het is program, or be programmed.

Donderdagmorgen 11 maart 2004 parkeert een gestolen witte Renault Kangoo in de Calle Infantado in Alcal? de Henares. De straat ligt langs het metrostation dat het stadje verbindt met Madrid. Aan de andere kant van een witte blinde muur liggen de rails. Jonge mannen springen uit het busje. Uit de bagageruimte trekken ze rugzakken en sporttassen. De tassen en rugzakken zijn zwaar. Ze staan bol van spijkers, schroeven en 10 kg Goma 2 ECO ? een vloeibaar explosief dat mijnbouwers gebruiken. Koperdraad koppelt de industri?le ontstekers aan mobiele telefoons. De mannen laten dertien rugzakken en tassen achter in verschillende treinstellen van vier verschillende treinen. Tussen 7.37 en 7.40 uur, als de treinen richting station Atocha in Madrid rijden, brengen de terroristen de bommen tot ontploffing. Tien van de dertien gaan af. Het resultaat: 191 doden en 1.824 gewonden.

Meteen begon een klopjacht op de daders. De sleutel is een blauwe sporttas die is gevonden in het Azor?npark, met naast de explosieven een intacte mobiele telefoon, een Mitsubishi Trium T-110. Via het simkaartje in die telefoon weet de politie verschillende terroristen op te sporen. Uiteindelijk eindigt de achtervolging op 3 april 2004 bij een appartement in het zuiden van Madrid. Tussen half zes en half zeven arriveert een zwaar bewapende speciale eenheid. De politie sluit het gebied af en speciale eenheden richten een veldhospitaal in. Vanaf de eerste verdieping klinken Arabische gezangen. De speciale eenheden bestormen het pand en schieten rookbommen naar binnen. De terroristen bellen hun geliefden en gaan in een kring op de grond zitten. Drie minuten over negen blazen ze zichzelf en het pand op. Ook een lid van de speciale eenheid komt daarbij om.

Iedere terroristische aanslag is te vertellen als een verhaal.

Diep morele zielen

Iedere terroristische aanslag is te vertellen als een verhaal. Vanuit een neutraal perspectief is het een donkere tragedie. Maar vanuit het perspectief van een terrorist een hero?sch verhaal. ?De ogen van de terrorist zijn niet leeg,? schrijft de antropoloog Scott Atran in zijn boek Talking to the Enemy, waarvoor hij tientallen extremisten uit Afghanistan, Indonesi? en Marokko interviewde. ?Hun voldoening ligt niet in de rustige anticipatie van maagden in de hemel. Het is lichamelijk als bloed en verscheurd vlees. Terroristen zijn geen nihilisten, wreed of onzeker, maar vaak diep morele zielen met een gruwelijk misplaatst gevoel van rechtvaardigheid.?

Een terrorist is in zijn eigen ogen een klassieke held die zijn leven op het spel zet om een monster te overwinnen. Het is het verhaal dat in iedere cultuur opduikt. David tegen Goliath. De strijd van de rebellen tegen de Galactic Empire. Een onmogelijke opdracht, maar de held heeft een geheim wapen, en de ster des doods heeft een achilleshiel.
Het is geen toeval dat het een filmmaker was die zich realiseerde dat dit een vruchtbaar perspectief is om een terroristische aanslag uit te analyseren. Peter de Kock (48) maakte in 2006 de veel geprezen documentaire De handen van Che Guevara. Een zoektocht naar de handen van Che Guevara, die van zijn lijk waren afgehakt en opdoken in een pot met water en formaldehyde. In 2008 maakte de filmmaker de overstap naar de politie. Een overstap die kleiner is dan die lijkt. De Kock zag de overeenkomst tussen het plannen van filmopnamen, het opdelen van een verhaal in elementaire bouwblokjes en het voorbereiden van een liquidatie of terroristische aanslag. Net als een terrorist maak je als filmmaker een scenario van iets wat nog moet gaan gebeuren.

Zeven lagen diep

De Kock begon in Tilburg aan een promotieonderzoek. Met behulp van databases die vrij op internet staan, zoals de Global Terrorism Database en WikiLeaks wist De Kock 35.000 terroristische aanslagen bij elkaar te schrapen. Hij bedacht een methode om iedere aanslag als een patholoog anatoom uit elkaar te snijden en de organen naast elkaar op de snijtafel te leggen: een held, een vijand, een symbolisch doelwit, een wapen en een valse aanwijzing: ?the red herring?.

Toen De Kock vlak na de aanslag op de marathon van Boston zijn database raadpleegde, rolde eruit dat de verdachten waarschijnlijk uit Tsjetsjeni? kwamen. Daar waren al eerder aanslagen met snelkookpannen gepleegd. Hij realiseerde zich dat hij wat goeds had bedacht en vroeg een patent aan op zijn idee. 10 september 2014 promoveerde De Kock. Nog in rokkostuum zat hij aan tafel bij De Wereld Draait Door. ?En in de weken na mijn promotie belden veiligheidsdiensten, overheidsinstanties en softwarebedrijven me helemaal suf. En dan moest ik zeggen, ja, ik heb alleen maar een schets gemaakt. Maar er belden ook bedrijven die zeiden: wij kunnen van jouw idee werkelijkheid maken. We kunnen de software in no time voor je bouwen. In de afgelopen maanden is alles bij elkaar gekomen. Het is nu niet meer alleen maar Peter die een plannetje heeft.? In Elst, Gelderland hangt nu op een bedrijventerrein, tussen verfgroothandels en smederijen een bordje met ?Pandora Intelligence?.

?Introducing the human dimension in big data?, staat als ondertitel op de website. De Kock: ?We hebben inmiddels een enorme dataset van meer dan 500.000 terroristische incidenten die zijn opgebouwd uit twaalf verhaalcomponenten met onderliggende subcomponenten. Een verhaalcomponent is ?het middel?. Een middel kan een schoen zijn. Als de Amerikaanse president een persconferentie geeft en iemand gooit een schoen naar zijn hoofd, dan kun je dat zien als een terroristische aanslag. Een middel kan natuurlijk ook een vuurwapen zijn. Dat kun je weer een laag dieper onderverdelen in een vuistvuurwapen of automatisch vuurwapen. En vuistvuurwapen kun je weer een niveau lager onderverdelen in revolver of pistool. Zo heb je een hele taxonomie, een verdere vertakking die onder die twaalf basiscomponenten ligt. De tweede laag heeft 198 componenten, de derde laag meer dan zestienhonderd. Het model is zeven lagen diep. We hebben waanzinnig veel subcomponenten en al die subcomponenten zijn onderling met elkaar verbonden. Dat kun je visualiseren als een soort koolstofatoom: allemaal grote en kleine bolletjes die op verschillende afstanden van elkaar liggen. Een driedimensionale puntenwolk; het dna van een aanslag. Op deze manier hebben we van die 500.000 incidenten automatisch dna-structuren gemaakt.?

?Creativiteit? in het model

De Kock heeft nu een verzameling van honderdduizenden enorme puntenwolken die allemaal een terroristische aanslag representeren. ?Zo kun je bijvoorbeeld ontdekken dat er gelijkenis is in de molecuulstructuur van de aanslagen op Anna Lindh en de aanslagen in Dubai.?

En De Kock ging verder. Hij voegde ook romans en computerspellen aan zijn database toe. Het idee hierachter is dat aanslagen soms eerder beschreven zijn in fictie. De ?Oklahoma-bomber? Timothy McVeigh haalde het idee voor zijn aanslag uit de romanThe Turner Diaries van William Luther Pierce. Tom Clancy beschreef in de jaren negentig al een gekaapt vliegtuig dat het Capitool in vloog. De acties van Anders Breivik zijn exact na te spelen op het computerspel GTA. ?Elk spel van Modern Warfare en GTA dat gespeeld wordt, kun je zien als een terroristische aanslag. En de scenario?s uit deAnarchist Cookbook staan natuurlijk ook in de database. Elke aanslag is uniek, maar je ziet ook dat er overeenkomsten zijn. Bovendien wordt hiermee ?creativiteit? in het model ge?ntroduceerd. Gegevens uit aanslagen die eerder bedacht zijn maar nog niet uitgevoerd, worden in het model gekoppeld aan daadwerkelijk gebeurde aanslagen.?

Illustratie: Zenk One

De Kock legt uit wat je hier in de praktijk aan hebt: ?Neem bijvoorbeeld de schietpartij in de Thalys. Het Franse persbureau AFP maakte die schietpartij als eerste bekend, ook voor de veiligheidsdiensten: ?Schietpartij Thalys?. Ons model gaat dan vanzelf lopen, want dat triggert op woorden als ?schietpartij?. Het model zet zichzelf aan en begint te analyseren: ?schietpartij betekent een vuurwapen?, en ?de Thalys is een strategisch object dat rijdt?. Dus op dat moment zegt het model: denk aan de aanslagen in Madrid, of: denk aan de aanslagen op het openbaar vervoer van 2007 in Londen. Maar daar heb je nog weinig aan. Op het moment dat er sprake is van een kalasjnikov ? die informatie kwam als eerste via Twitter binnen ? wordt het aantal scenario?s weer kleiner. Dat duidt erop dat er een criminele organisatie bezig is of dat er sprake is van terrorisme.?

Op de wc

Het model van De Kock voorspelt op basis van een paar feiten die via de persbureaus of social media binnenkomen hoe de hele wolk aan punten er naar verwachting uit gaat zien. Terwijl de rechercheurs nog op weg zijn, geeft het model zo verschillende scenario?s waar de politie rekening mee kan houden. Als een schaakprogramma dat voorspelt wat de volgende zet van een schaker zou kunnen zijn, op basis van honderdduizenden schaakpartijen die eerder zijn gespeeld.

De Kock: ?Dit is wat we de adapt-fase noemen. Het aanpassen aan een situatie die zich ontwikkelt.?

Toen een jongen zich opsloot op de wc van een Thalys in Rotterdam Centraal, moest iedereen meteen aan de schietpartij in de Thalys denken, maar het model van De Kock zag meteen dat het een heel ander verhaal was. Iemand die zich opsloot in een wc om daar een uur te blijven zitten, dat was nooit eerder gebeurd bij een terroristische aanslag.

Een ander doel waar analisten het programma voor kunnen gebruiken, is anticipatie. De Kock: ?Op een dag als Prinsjesdag weten we veel. We weten waar en wanneer politici aanwezig zijn en we weten ook uit welke hoek die politici bedreigd worden. Zo kan het model berekeningen maken van scenario?s waar we op Prinsjesdag mogelijk rekening moeten houden. Hier kunnen we de beveiliging van politici of leden van het koningshuis op afstemmen.?

Een andere voorzichtige conclusie is dat veel hedendaagse terroristen veel gamen, oefenen met computerspellen.

Het model werkt beter dan iedereen verwachtte. ?De eerste voorzichtige conclusie die we nu trekken is dat terroristen vaker de kunst volgen dan we dachten. Het lijkt erop dat terroristen zich veel meer door fictie, computerspellen en andere aanslagen laten inspireren dan tot nu toe werd verondersteld.? Een andere voorzichtige conclusie is dat veel hedendaagse terroristen veel gamen, of net als Anders Breivik, oefenen met computerspellen.

Interessant is dat dergelijke conclusies moeilijk te bewijzen zijn. Het model van De Kock werkt niet op basis van analytische logica, maar met machine learning of deep learning. Dit lijkt misschien een onbelangrijk detail, maar is kenmerkend voor een stormachtige ontwikkeling in de wereld van ?big data?. Het model van Peter de Kock vergelijkt niet analytisch de verschillende datawolkjes met elkaar om er razendsnel verbanden tussen te vinden. De computer simuleert een machine die zijn eigen bedradingen en schakelingen steeds opnieuw verandert, net zoals een brein dat doet. Als een voorspelling uitkomt, dan is de machine tevreden en zal hij zichzelf maar weinig aanpassen, heeft hij het fout gedaan, dan verandert hij meer aan zichzelf, net zolang tot de gesimuleerde machine bij een bepaalde input een output geeft die dicht bij de werkelijkheid ligt. Het resultaat is een voor mensen ondoorgrondelijke algoritme dat soms verrassend goed presteert.

Verboden gebied

Het principe is al oud en gebaseerd op een idee van computerwetenschapper Arthur Samuel. Al in 1956 leerde hij een computer schaken door het partijen tegen zichzelf te laten spelen. Hij programmeerde welke zetten de stukken mochten zetten en definieerde een gewenste uitkomst (winst) en een ongewenste uitkomst (verlies). Het programma speelde steeds weer andere partijen tegen zichzelf. Achter de zet van de computer zat geen gedachte en leek geen logica schuil te gaan, maar de computer leerde de zetten die niet tot winst leidden te vermijden. Het resultaat was dat de computer beter leerde schaken dan Arthur Samuel. Het was de eerste weerlegging van het argument dat computers nooit slimmer zullen worden dan mensen omdat mensen de computers programmeren.

Het idee van Samuel is in de loop van de jaren verfijnd. En de laatste jaren zijn computers zo krachtig dat de principes van deep learning zijn toe te passen op enorme databases. Op dit moment speelt zich daarom een revolutie af in de wereld van beeldherkenning en automatische vertaalprogramma?s.

?Het is niet meer zo dat als je in de programmatuur kijkt, dat er dan iets logisch te zien is,? zegt Selmar Smit van TNO, ?het is niet ?als dit dan dat?. Een uitkomst ?is? er gewoon.?

Telefoontjes moeten in een deurtjeskluis buiten de sluisdeur. Voor de deur pakt een man in duur pak een slick James Bond-achtig reiskoffertje in.

De computerwetenschapper zit in een soort klein schoollokaaltje samen met collega Arnout de Vries achter een tafel. Dertigers in overhemd. De onderzoekers werken in ?verboden gebied? in een kantoorgebouw aan de rand van het natuurgebied Meijendel aan digitale opsporingstechnieken voor de politie. Telefoontjes moeten in een deurtjeskluis buiten de sluisdeur. Voor de deur pakt een man in duur pak een slick James Bond-achtig reiskoffertje in. Ook in de wereld van de veiligheidsdiensten lijkt werkelijkheid be?nvloed door fictie.

TNO onderzoekt de big data mogelijkheden voor de AIVD, de MIVD en werkt samen met bedrijven als AGT, het internationale beveiligingsbedrijf waarvan prins Pieter-Christiaan in Nederland de baas is.

Smit: ?Op een gegeven moment heeft het model verzonnen dat bepaalde input ertoe doet, en dat leidt tot een output met een onbegrijpelijke complexe formule. Als je die zou uitschrijven, zou je kilometers papier nodig hebben. Het is net als bij onze hersenen. Als je ze opensnijdt, kun je zien dat er iets gebeurt, maar je weet niet wat. Tot vijf jaar geleden kon je weinig data slim gebruiken of heel veel data dom gebruiken. Dat is nu anders. Nu kun je heel veel data heel slim gebruiken. Ik werk nu zelf ook met zo?npredictive policing algoritme waarbij ik zelf niet meer begrijp waarop de voorspelling gebaseerd is. Het is een model dat brandhaarden voorspelt. Ik stop er data in en het model voorspelt vrij accuraat wat potenti?le brandhaarden zijn. Maar het model is zo complex dat ik het zelf niet kan lezen of begrijpen.?

Bij het voorspellen van brandhaarden is dit niet zo?n probleem. Bij het voorspellen van aanslagen wordt het al iets dubieuzer. ?Met het model van De Kock kun je voorkomen dat er een delict gepleegd wordt en daar zijn we allemaal heel blij mee,? zegt strafjurist Ybo Buruma, ?juridisch gezien kun je iemand niet in de gevangenis stoppen op basis van zo?n programma. Maar de inlichtingendienst en de politie kunnen verstoren. Dat wil zeggen dat ze een aanslag kunnen voorkomen, terwijl de terrorist vrijuit zal gaan omdat die nog niks heeft gedaan. Die afweging is, denk ik, in het verleden ook wel gemaakt door de AIVD. Sindsdien zijn er nieuwe anti-terrorismewetten gekomen die ook het voorbereiden van aanslagen strafbaar maken. Omdat die wetten heel ruim zijn, moeten we wel oppassen dat we niet in de verleiding komen de programma?s van De Kock te gebruiken om mensen te veroordelen voordat ze iets gedaan hebben ? dat zou net zoiets zijn als dat Amazon me alvast boeken stuurt omdat ik die vast heel mooi zal gaan vinden, maar dan erger.?

Fout positieven

Helemaal griezelig wordt het als dergelijke algoritmes gebruikt worden om te voorspellen of iemand een aanslag gaat plegen. Zoals iedere aanslag een verhaal is, zo is het leven van iedere terrorist te beschrijven als biografie. Het is niet ondenkbaar dat een model dat gevoed wordt met levensverhalen zoals mensen zelf via Facebook en Instagram schrijven, goede voorspellingen kan doen. Om nog maar te zwijgen over de data die scholen bijhouden. Misschien dat zo?n model redelijk kan voorspellen of iemand radicaliseert of het criminele pad op gaat. Net als dat Amazon nu al redelijk kan voorspellen welk boek je leuk gaat vinden. Dit gaat op de film Minority Report lijken. Wat moet je met een deep learning algoritme dat het opmerkelijk goed doet, en dat als output geeft dat een jongen met 90 procent zekerheid iets gevaarlijks gaat doen? Zonder dat iemand begrijpt waarom.

Buruma: ?Je kunt het het gevaar van ?digitale vooroordelen? noemen. Het menselijk brein heeft ook vooroordelen ? ?Noord-Afrikaan met lange baard zal wel fundamentalist zijn en dus terrorist? ? waar de computer misschien juist niet intrapt. Maar door foute input of verouderde gegevens kunnen ook verkeerde verbanden worden gelegd. Ik heb bij Amazon gezocht naar een titel van Plato en daarbij heel veel verschillende zoektermen ingetikt: nu denkt die computer van Amazon dat ik geweldig ge?nteresseerd ben in klassieke filosofie. Ik ben blij dat ze mij niet alvast de nieuwste wetenschappelijke teksten over Plato toesturen. Een winkel wil mij niet boos maken, maar als ik door de politie ?fout-positief? als terrorist wordt aangewezen, nemen ze denk ik al gauw het zekere voor het onzekere. Waar ik bezorgd over ben, is dat we ons over een jaar of vijf realiseren dat die neurale netwerken heel erg veel hebben opgeleverd, maar dat we te weinig de nadelen ervan hebben gezien. Ik denk dat we dankzij programma?s als die van Peter de Kock steeds beter de groep ?fout negatieven? ? mensen van wie we nu nog ten onrechte niet zien dat het terroristen of boeven zijn ? kleiner kunnen maken. Het gevaar is dat de techniek ook een grotere groep ?fout positieven? oplevert ? mensen van wie ten onrechte wordt gedacht dat het terroristen of boeven zijn. Dat zijn onschuldige mensen die er niks mee te maken hebben, maar bij wie wel het arrestatieteam binnenstormt.?

Veiligheidsbutler

Arnout de Vries van TNO is het helemaal met Buruma eens. Maar hij ziet ook dat bedrijven minder terughoudend zijn. De overheid kan en mag volgens De Vries niet achterblijven bij deze bedrijven. En dat is wel wat er nu gebeurt. Om de eenvoudige reden dat ?alle big sisters? zoals Google en Facebook meer mogen dan de overheid en veel grotere innovatiebudgetten hebben. Google kocht begin 2014 het vijftig man tellende bedrijf Deep Mind voor vierhonderd miljoen dollar en haalde daarmee een groot deel van de beste deep learning wetenschappers binnen.

De Vries: ?Verschillende bedrijven willen het KNMI van de terrorismevoorspelling worden. Juist omdat de data die je buiten de politie om kunt krijgen, steeds rijker worden. Waar ik me echt zorgen over maak, is dat de overheid buitenspel komt te staan. Dat de bedrijven de burgers en de criminelen het allemaal wel zelf kunnen. Dan leven we echt in het wilde westen. Ik ben zeker geen voorstander van een grote overheid, maar er moet wel een bepaalde balans zijn.?

Op dit moment rijdt in Silicon Valley al de Knightscope rond, een R2D2-achtige robot. De Vries: ?Hij heeft 360-graden camera?s, kan in het donker kijken en heeft ook voorspellende software, scant social media, is volledig geautomatiseerd. Dat ding kost nu nog een paar duizend dollar. Maar straks zit dat in de grasmaaier in je voortuin, als een veiligheidsbutler. De straat is dan veilig en het kost niks. Maar als we zo?n ding zelflerend maken en toestaan om iemand te taseren, dan kom je in een wereld waar sciencefiction schrijvers over schrijven. Is het erg als het werkt en iedereen zich daardoor juist veiliger voelt? En is het dan erg als er een bedrijf als Google achter zit??
Werken wij mee aan de nieuwe atoombom? Tja. Het is program, or be programmed.

Het zijn vragen waar nu over nagedacht moet worden. De snelheid waarmee deep learning de laatste paar jaar beter wordt, lijkt de mensen die weten wat nu in de onderzoekslaboratoria ontwikkeld wordt, angst aan te jagen. Elon Musk en Bill Gates hebben onafhankelijk van elkaar hun grote zorg uitgesproken over de snelle ontwikkelingen. Musk investeerde 10 miljoen dollar in onderzoek naar de veiligheid en juridische consequenties van kunstmatig intelligente systemen.

De intelligente computer HAL uit 2001: A Space Odyssey begint langzaam maar zeker realiteit te worden. Denk aan een zelflerende schoonmaakrobot die je de opdracht geeft om het huis zo effici?nt mogelijk schoon te houden, een robot die in contact staat met de cloud en andere schoonmaakrobots. Zo?n robot leert misschien dat het huis het beste schoon blijft als hij mensen buiten de deur houdt.

?Wij proberen nu uit te vinden hoe de techniek goed gebruikt kan worden. Maar kun je specificeren wat goed is?? zegt De Vries van TNO. ?Werken wij mee aan de nieuwe atoombom? Tja. Als je er niet door overvallen wilt worden, moet je zelf achter het stuur gaan zitten. Het is program, or be programmed. Als wij niks doen, weten we zeker dat het voor het slechte gebruikt gaat worden.?

Bron: Vrij Nederland