Big Brother Awards 2021

Afl 1. Predictive Policing - Naomi Appelman

Episode Summary

Stel dat je kunt voorspellen wáár in je wijk de volgende woninginbraak is. Of waar je ’s avonds laat het volgende dronken opstootje kunt verwachten. Dat kan, met predictive policing. Handig, toch?

Episode Notes

Je luistert naar de Big Brother Awards podcast van Bits of Freedom.

Wij zetten elk jaar de mensen en organisaties die jouw privacy het meest hebben geschonden in het zonnetje. Dit jaar doen we dat in de vorm van een podcast:

In deze 8 delige serie maak je kennis met de grootste privacyschenders van afgelopen jaar.

Misschien heb jij wel op de winnaar van de Publieksprijs gestemd en een vakjury deelde de Expertprijs uit.

Maar Bits of Freedom reikt ook elk jaar een Felipe Rodriguez Award uit, deze geven we aan een persoon die een buitengewone bijdrage heeft geleverd aan het beschermen van onze rechten.

In deze eerste aflevering maken we de winnaar van de expertprijs bekend, en spreken we met Naomi Appelman, over Predictive Policing.

Het transcript van deze aflevering lezen? Kijk dan op https://2021.bigbrotherawards.nl/podcasts/bba-aflevering-1-predictie-policing

---

Host: Inge Wannet

Productie: Randal Peelen

Transcriptie: Robert-Jan en Pieter

Gast: Naomi Appelman

Naomi Appelman is mede-oprichter van het Racism and Technology Centre, dat zich inzet om inzicht te krijgen in hoe racisme zich manifesteert in technologie. Daarnaast is ze PhD kandidaat bij het Instituut voor Informatierecht van de Universiteit van Amsterdam.

Episode Transcription

00:00:01

Inge Wannet: Stel dat je kunt voorspellen waar in je wijk de volgende woninginbraak is, of waar je 's avonds laat het volgende dronken opstootje kunt verwachten. Dat kan met CAS, het Criminaliteits Anticipatie Systeem van de politie. Dat klinkt misschien handig, maar om tot die voorspellingen te komen, verzamelt de politie allerlei gegevens waarvan zij denken dat ze iets zeggen over de kans dat er ergens een misdaad plaats gaat vinden. Je sekse, de grootte van je huishouden, je afkomst, je leeftijd en ga zo maar door. Ik krijg het daar zelf eerlijk gezegd een beetje benauwd van. Wordt het er zo wel echt veiliger door op straat? En voor wie dan?

[triphopmuziek speelt, gaat door terwijl Inge begint te praten]

00:00:58

Inge Wannet: Je luistert naar de Big Brother Awards Podcast van Bits of Freedom. Mijn naam is Inge Wannet en samen met mijn collega’s zetten we elk jaar de mensen en organisaties die jouw privacy het meest hebben geschonden in het zonnetje. Dit jaar doen we dat in de vorm van een podcast.

00:01:2

Inge Wannet: De eerste vijf afleveringen gaan over de expertprijs, uitgedeeld door onze vakjury. Daarna volgt een aflevering over de publieksprijs, waar jij misschien zelf wel op gestemd hebt. De zevende aflevering gaat over de Felipe Rodriguez-award. Deze geven we aan een persoon die een buitengewone bijdrage heeft geleverd aan het beschermen van onze rechten. We sluiten deze achtdelige podcastreeks af met een terugblik op de Big Brother Awards. Je luistert nu naar een aflevering over onze expertprijs. Dat is dit jaar een oeuvreprijs, een lifetime achievement award. De prijs gaat dit jaar naar het Ministerie van Justitie en Veiligheid. Zij hebben het wat onze experts betreft zo bont gemaakt dat we een Big Brother Award hebben uitgereikt voor een hele rits aan privacymissers. Zo hebben ze van de Nationaal Coördinator Terrorismebestrijding en Veiligheid, de NCTV, stiekem een nieuwe geheime dienst gemaakt en hebben ze een obsessie met gezichtsherkenning, en waar is de minister van Rechtsbescherming eigenlijk? Genoeg schokkende zaken om de komende weken over in gesprek te gaan. In deze eerste aflevering zoomen we in op een van de missers die het Ministerie heeft gemaakt, predictive policing, oftewel politiewerk aan de hand van voorspellingen.

[muziek wordt zachter en stopt]

00:02:28

Inge Wannet: Ik ga zometeen in gesprek over predictive policing met Naomi Appelman. En dat doe ik niet alleen want ik heb mijn collega Lotte Houwing meegenomen.

00:02:37

Inge Wannet: Hoi Lotte.

00:02:38

Lotte Houwing: Dag, Inge.

00:02:39

Inge Wannet: We zijn natuurlijk al een paar jaar collega’s, maar kan je me uitleggen wat je precies doet bij Bits of Freedom?

00:02:45

Lotte Houwing: Ik werk nu onderhand al inderdaad tweeëneenhalf jaar bij Bits of Freedom, en ik werk daar als beleidsadviseur. Dat betekent dat ik me vooral richt op wetgeving en de onderwerpen waar ik op werk hebben allemaal te maken met overheidssurveillance. Vandaag ook.

00:02:59

Inge Wannet: De Big Brother Awards expertprijs gaat dit jaar naar het ministerie van Justitie en Veiligheid om maar liefst vijf verschillende redenen. Vandaag reden een: predictive policing. Eh Lotte, waarom is dat volgens jou terecht?

00:03:11

Lotte Houwing: Er is sprake van een enorme disbalans tussen de politie en de burger. Waar de politie steeds meer gegevens over de burger verzamelt, is zijzelf helemaal niet transparant over wat ze doet. Dat zien we bijvoorbeeld over dat ze niet met een helder verhaal komt over de gelekte cijfers van haar gebruik van de omstreden dienst Clearview AI. Een andere disbalans zit hem in macht. Waar de politie kan opschalen, zij kan ingrijpende bevoegdheden inzetten, ze heeft een geweldsmonopolie, kan een burger dat eigenlijk helemaal niet. En dan komt er nog technologie in de mix. Ik vind het persoonlijk super eng om een dienst met zo veel bevoegdheden, die zich zo vaak niet aan de wet houdt, zulke ingrijpende technologie te geven. En dat met zo weinig toezicht en met zo weinig controle. De politie moet écht worden beteugeld en de burger moet meer beschermingsmiddelen krijgen.

[triphopmuziek speelt]

00:04:04

Inge Wannet: Naomi Appelman is PhD-kandidaat bij het IViR: het Instituut voor Informatierecht van de Universiteit van Amsterdam. Ze heeft een achtergrond in rechten en filosofie. Haar onderzoek richt zich op online uitsluiting en hoe de macht van de grote technologiebedrijven kan worden bestreden. Daarnaast werkt ze bij het Racism and Technology Center, dat zich inzet om inzicht te krijgen in hoe racisme zich manifesteert in technologie.

[elektronische muziek speelt]

00:04:35

Inge Wannet: Nou, Naomi, fijn dat je er bent! Welke projecten zijn er in Nederland eigenlijk allemaal rondom predictive policing?

00:04:42

Naomi Appelman: Ja, ik denk dat het echt een fantastisch onderwerp is om meer aandacht aan te besteden. Ehm... en… d’r zijn een – ja, een scala aan projecten. Ik denk dat het belangrijkste eerste punt om te maken, is dat we eigenlijk gewoon geen overzicht over hebben, van er is niet een soort van centrale pagina van de overheid of de politie waarin staat: dit zijn alle predictive policing projecten die we hebben. Eh… we hebben wel – nou ja, we weten van een aantal, maar we weten dus niet of er meer is. Eh… voorbeelden zijn bijvoorbeeld CAS, dus dat Criminaliteits Anticipatie Systeem waar jullie het volgens mij al eerder over hebben gehad; ehm… in Roermond, dat project, de top 400; eh… en recent ook – een beetje een twijfelgeval maar ehm... de Nederlandse marechaussee, die eh... bepaalde systemen gebruikt waar ook etniciteit een specifieke factor in is om eh... mensen uit de rij te plukken om te controleren op vliegvelden.

00:05:33

Inge Wannet: Ja. En waarom is dat een twijfelgeval?
 

00:05:36

Naomi Appelman: Nou ja, omdat eh… in – ja, het is natuurlijk – het is niet echt predictive in dat opzicht, ehm… maar wel etnisch profileren. Eh… en wat een heel erg belangrijk onderwerp is waar we het over moeten hebben als je het hebt over predictive policing.

00:05:50

Inge Wannet: Ja want… wat de politie zelf vaak aanhaalt, beter kunnen voorspellen van waar criminaliteit zal plaatsvinden. Ja, wat-wat is daar eigenlijk mis mee?

00:05:59

Naomi Appelman: Ja, ik snap wel heel goed dat je dat zegt en ik kan me ook heel goed voorstellen dat dat bij de meeste mensen de eerste impuls is: van “nou ja, klinkt als een goed idee. Eh… waarom laten we het niet door eh... objectievere of neutralere systemen oplossen eh… zodat we efficiënt met onze eh... politie om kunnen gaan?” Maar ik denk dat het daarvoor belangrijk is om een stapje terug te nemen en echt te kijken van, nou ja, wat doen dit soort systemen nou eigenlijk, en hoe verhoudt zich dat tot wat wij vinden dat de taak van de politie zou moeten zijn? Ehm… en om nou met dat laatste te beginnen, dus, wat, nouja, wat is de taak van de politie? Dat is het beschermen van de rechtsstaat. Dus je moet het altijd in die context blijven zien en naja, wat voor waarde dan ook, dus efficiëntie, ehm… kan niet tegen die rechtsstaat zelf ingaan. Dus dat moet je altijd, denk, als buitenste grens blijven zien.

En dan, wat dit soort systemen eigenlijk doen, is op basis van bestaande data, dus data uit het verleden, voorspellingen voor de toekomst doen, ehm… en die dan inzetten om een specifiek type misdaad tegen te gaan. En hier kleven volgens mij een heel erg groot aantal problemen aan vast. Een eerste daarvan is: ja wat voor data baseer je dat nou eigenlijk op? En daar kan je al, denk, een hele podcast eh… mee vullen met die vraag en wat daar – wat voor problemen daar aan vastkleven. Maar dan moet je denken aan: klopt die data ten eerste? Dus hè, is het allemaal w – Kloppen dingen die je erin stopt? Want als je met foute data zo'n systeem gaat voeren komen daar natuurlijk ook foute resultaten uit. Da’s logisch.

Maar daarnaast, ook al ‘klopt’, tussen aanhalingstekens, de data wel, kan je nog meer vragen stellen, namelijk: hoe is die verzameld en wat voor beeld van de werkelijkheid geeft die data? Want we hebben het hier namelijk over historische politiedata en ja, die kijkt sowieso alleen maar naar criminaliteit die gerapporteerd is; ehm… een bepaald soort criminaliteit. En daarmee, als je je systemen op basis van die historische data ehm… baseert, kan je bestaande vormen van ongelijkheid daarmee reproduceren. [Inge: Hmhm.] Dus je zorgt er eigenlijk voor dat de vraag: “Hé: waarom zijn er in so – op sommige plekken, is er meer misdaad?”, die kan daarbij niet gesteld worden. Misschien zijn er wel andere redenen dan [zet zware stem op] iedereen in deze wijk is crimineel [gaat door met normale stem] en zal dat in de toekomst ook zijn. Dus ehm… dat punt van welke data gebruik je is een ontzettende belangrijke. En in hoeverre je daarmee… nouja, historische patronen gewoon gaat reproduceren.

00:08:38

Inge Wannet: Ja, kan je een voorbeeld geven van waar het dan een keer is misgegaan met eh… predictive policing in Nederland?

00:08:42

Naomi Appelman: Nou, ik denk in – dat in… zekere zin je kan zeggen dat bij eigenlijk alle voorbeelden die we hier eerder genoemd hebben ‘het misgegaan is’, omdat er namelijk allerlei eh… factoren meegewogen worden om te bepalen, nouja, de kans op criminaliteit of hoe crimina – neel een plek is. Eh… dat er dingen meewegen die je eigenlijk niet zou willen dat die een rol spelen, zoals etniciteit of sociaaleconomische status, of nou ja, een wijk.

00:09:07

Inge Wannet: Dus je noemde net zelf al even, etnisch profileren is een van de dingen die bij predictive policing eh… vaak misgaan. Is dat – is etnisch profileren ingeprogrammeerd bij eh… predictive policing? Hoe m – Hoe moet ik dat zien?

00:09:20

Naomi Appelman: Ja ik denk dat je er op verschillende manieren naar kan kijken. Er zijn systemen waar, ja, ja dit is er ingeprogrammeerd zoals bijvoorbeeld dat systeem van de marechaussee waar ik het eerder over had. Daar is etniciteit gewoon een van de [zet duistere stem op] risicofactoren [gaat door met normale stem] ehm… waar… ja, die dus meeweegt in eh... hoe groot de kans is dat je crimineel bent. Ehm… maar... ja, dan kun je zeggen: “Nou heel simpel, bouw een systeem waarbij je dat niet doet, probleem opgelost.” Maar zo simpel is het natuurlijk ook niet, omdat er heel erg veel ehm... datapunten of-of soorten informatie zijn die als proxy werken voor etniciteit. Eh want je ziet namelijk een hele grote correlatie tussen nou ja, vormen van sociale ongelijkheid of werken in bepale – wonen in bepaalde eh… wijken en etniciteit. Zo zijn er nog veel meer zaken die, zonder dat je dan ooit iemands etniciteit eh… noemt, dat je die wel uit data kan halen, omdat er dus gewoon zo veel andere dingen ehm… daar naartoe wijzen. En dan is de vraag, ja: “Zit dat dan ingebakken in het systeem of kan je dat er dan uit halen?” En… eigenlijk kan dat niet, want dat soort data is... een reflectie van de sociale of, nouja – een bepaalde reflectie van de werkelijkheid waar we in leven. En het probleem is niet dat die systemen, dat daar bepaalde fouten in zitten. Het probleem is dat je in de maatschappij leeft, waar er bepaalde vormen van ongelijkheid en racisme en discriminatie onderdeel van is en dat zijn de dingen die je moet oplossen als sociaal probleem, ehm... en dat kan je niet in zo'n systeem oplossen.

00:10:57

Inge Wannet: Maar is dat oplossen van dat sociale probleem, is dat wel een taak van de politie? Want de politie moet gewoon boeven vangen en dat kunnen ze op deze manier.

00:11:08

Naomi Appelman: Dat is zeker geen taak van de politie. Dat is een taak van de politiek en de maatschappij als geheel. En, denk ik, nouja, een van de belangrijke taken waar je als maatschappij voor staat. Ehm… en dit is ook wat ik eerder bedoelde met dat ik het enge van dit soort systemen vind dat ze onzichtbaar maken – d… dit-dit soort meer fundamentele vragen en ook de beleidskeuzes die daarachter zitten.

00:11:32

Inge Wannet: Dus eigenlijk is het hier weer wat je eerder al zei, ehm...: een stapje terug. Wat willen we eigenlijk dat de politie doet? Wat is hun taak, wat willen we als maatschappij en niet meteen het vastleggen in zo'n systeem, wat dan als waarheid wordt gezien.

00:11:47

Naomi Appelman: Ja, precies, ik denk dat het heel belangrijk is om die fundamentele vragen te stellen. En dan… Als je, nouja, een soort maatschappelijke opdracht en beleid hebt, dan vervolgens pas in de tweede stap te kijken naar wat voor systemen zouden daar dan eigenlijk bij passen. Als we een beeld hebben wat wij vinden dat efficiënt politiewerk is, dan kunnen we proberen een systeem te vinden wat daarbij past. Ehm… met als kanttekening dat je eigenlijk altijd dat gesprek moet blijven voeren, omdat het dus heel moeilijk is, nouja, onmogelijk is om een systeem te maken wat-wat in dat opzicht neutraal is.

00:12:20

Inge Wannet: Etnisch profileren binnen het... reguliere politiewerk is natuurlijk al probleem, eh… is gebleken in de afgelopen jaren. Welke extra problemen brengt het etnisch profileren bij predictive policing eigenlijk met zich mee? Dus ten opzichte van ehm… het profileren in het reguliere politiewerk.

00:12:39

Naomi Appelman: Ja, de basale onschuldpresumptie komt in het geding met dit soort systemen. Eh… omdat je dus eigenlijk op basis van, nouja, aan de ene kant kenmerken waar je zelf niks aan kan doen, ehm… ge-gestigmatiseerd wordt. Maar ook dat je op basis van andere mensen hun handelen... in het verleden, word jij gestigmatiseerd. Dus mensen die op jou lijken, of die dingen deden eh… op dezelfde plekken als jij, die zijn crimineel, dus jij zult dat waarschijnlijk ook wel zijn. En dat is natuurlijk een heel erg problematische manier, nouja, vanuit moreel, maar ook vanuit juridisch, eh-eh… staatsrechtelijk perspectief om naar mensen te kijken. Want ja, wat is de onschuldpresumptie dan nog? Ehm… wat-wat is aut – hoe kijk je dan eigenlijk naar autonomie, als je zo erg op die manier ehm… andermans handelen op iemand plakt? En nouja, het stigmatiseert enorm.

00:13:32

Inge Wannet: En wat, wat zijn dan de verschillen tussen eh... de vooroordelen in zo'n systeem gieten en bijvoorbeeld een agent met vooroordelen?

00:13:40

Naomi Appelman: [grinnikt] Ja dat is natuurlijk allebei problematisch, en dat zijn allebei dingen waar je, waar je tegen moet blijven vechten. Maar ik denk dat als je het, het verschil tussen nouja, het individu, met bepaalde vooroordelen en een, en een breder systeem dat zo werkt, ik denk dat dat echt een verschil is in-in schaal in de eerste plaats. Dus hè, nou ja, als zo'n systeem bepaalde vooroordelen in zich bakt, ehm… heeft dat natuurlijk veel meer effecten. Dat is v-v – en ook veel onzichtbaarder omdat je dat eigenlijk niet – het systeem is niet op één plek en bestaat niet uit één ding. Ehm… dus ja, het is veel groter, de effecten zijn daardoor ook groter, maar misschien ook ehm… minder goed te identificeren. En… het verschil is denk ik ook intentie, want wat veel mensen vaak zeggen is van: “Nou ja, maar hè, kan een systeem racistisch zijn? Want nouja, we bedoelen het niet zo. Niemand bedoelde dat dit zou gebeuren.” Ehm… waardoor dat gesprek ook moeilijker te voeren wordt, want mensen discriminatie of racisme vaak alleen zien als iets wat een individu met slechte intenties kan doen. En daardoor wordt het... nouja, een beetje onder het tapijt geschoven als je een systeem hebt dat wel, nouja, systematisch bepaalde vormen van ongelijkheid creëert, wordt het moeilijker om daarover te hebben. Terwijl ja, dat zou je ook gewoon racisme kunnen noemen, ook al is er niemand die… die specifieke intenties had, de effecten zijn wel zo. Ehm… en dus, nouja, vaak groter en-en onzichtbaarder dan als je één… nouja, rotte appel ertussen zou hebben zitten.

[triphopmuziek begint te spelen, speelt door terwijl Nico begint te praten]

00:15:09

Nico Voskamp : Hoi, mijn naam is Nico, collega van Inge bij Bits of Freedom. Samen met vele vrijwilligers, partners en onze collega’s komen we op voor digitale burgerrechten. Wij verdedigen jouw privacy en communicatievrijheid op internet. Dit kunnen we alleen doen door de support van onze trouwe donateurs. Ben je al donateur van Bits of Freedom? Dan zorg jij ervoor dat we ons werk onafhankelijk kunnen doen. Heel erg bedankt voor je support! Nog geen donateur en wil je dit wel worden? Ga dan naar bitsoffreedom.nl/doneer.

[muziek stopt]

00:15:42

Inge Wannet: Ja je gaf al een eh... aantal keer aan dat het gebruik van dit soort systemen eigenlijk sociale ongelijkheid reproduceert omdat het al in de data zit die je in zo'n systeem stopt. Is het mogelijk om data zonder vooroordelen te gebruiken?

00:15:57

Naomi Appelman: Ja, het is goed dat je daar nog even op terugkomt. Ik denk dat het belangrijk is om dat echt helder te hebben, want, nouja, het doel van zo'n systeem is natuurlijk voorspellingen doen over de toekomst. Dus dan moet je wel data hebben die iets zegt over de werkelijkheid, of nou ja, de wereld waar we in leven en, kijk, tuurlijk, in theorie zou het mogelijk zijn om... nouja, neutrale data te eh-eh… creëren, maar die heeft dan niet echt een relatie tot de wereld waar we in leven, want de wereld waar we in leven, daar-daar ís ongelijkheid en daar héb je bepaalde wijken waar meer eh-eh… mensen met een… een niet-westerse achtergrond zitten, eh… waar mensen minder verdienen et cetera. Dus die ongelijkheid zit in de werkelijkheid waar we in leven. Ehm… en als je dat eruit zou willen proberen te halen, dan zeg je dus eigenlijk niks meer over onze maatschappij en [begint te lachen] kan je dus ook geen voorspellingen meer doen over hoe die er later uit zal zien.

00:16:52

Inge Wannet: En eh… naast het reproduceren van die ingebakken patronen, zie je nog meer risico’s van het gebruik van dit soort systemen?

00:17:00

Naomi Appelman: Nouja, een belangrijk ding is dat je dus die self-fulfilling prophecy – van je maakt dus eigenlijk, nouja, je vindt eh… op de plekken waar je zoekt, dus je maakt het type misdaad waar je naar op zoek bent – en dat-dat-dat... stuurt het politiesysteem in een bepaalde richting en ook, nouja, de media werkt daar dan aan mee, in de zin van daar-daar, dat wordt dan ook vaker onder de… eh… spotlicht gebracht dus daar horen we dan ook meer en daar worden mensen vaker, nouja, daar dan ook specifiek bang voor, dus het ehm… eh-eh… nouja, creëert die feedback loop waar we het al eerder over hadden.

En… ehm… ik denk een ander belangrijk ding waar we het nog niet echt over hebben gehad, is wie deze systemen maakt en… ehm... de rol van private partijen daarin. Want we hebben het vooral gehad over eh… de-de rol van politiedata en wat voor soorten data en wat voor problemen daarmee kunnen zijn. Maar wat je ook steeds meer ziet, is dat de politie… ehm... van bedrijven of andere private partijen data gaat gebruiken en die inzet voor dit soort systemen. Nouja, en dan komen er gewoon nog heel veel andere vragen opeens weer op het toneel. Want nouja, de – die data van die private bedrijven is voor hele andere doeleinden eh… verzameld. Mensen – nouja… bijvoo – een goed voo – Een goed voorbeeld daarvan is Clearview, [Inge: hmhm.] eh… dat heel erg veel openbare foto’s van mensen van het internet heeft gescraped. Nouja, eigenlijk van de meeste mensen die zullen luisteren waarschijnlijk ook gewoon de foto’s van Twitter of Facebook gehaald zijn eh… en die in één grote… ehm… eh… gezichtsherkenningsdatabase heeft gestopt, die vervolgens door de politie gebruikt is om te kijken of daar, nouja, bepaalde verdachten in zitten en dat roept natuurlijk enorm veel staatsrechtelijke vragen op. Van ja, wat doet zo'n bedrijf? Hoe verhoudt dat zich tot de overheid? Mag de politie dat überhaupt gebruiken? Ehm… dus dat is denk ik ook nog een ander belangrijk onderwerp, van: Wie maakt die systemen eigenlijk?

00:19:05

Inge Wannet: En zijn er – zijn er nog meer voorbeelden van data van bedrijven die de politie hiervoor heeft ingezet?

00:19:10

Naomi Appelman: In Amerika een aantal voorbeelden en in... Engeland een aantal voorbeelden waar meer data zoals eh… je creditcard histories, een schulddata wordt gebruikt om, nouja, profielen van mensen op te stellen.

00:19:22

Inge Wannet: Ja dan-dan schets je ook wel meteen een-een doemscenario als dit... allemaal aan elkaar geknoopt kan worden.

00:19:29

Naomi Appelman: Ja precies, en daarom is het ook zo belangrijk om wat meer zicht te krijgen op wat er nou eigenlijk daadwerkelijk gebeurt. En dat is ook, nouja – daar begonnen we volgens mij al ook bij toen je... mee – toen je vroeg wat voor voorbeelden er zijn. Dat er dus niet echt… eh... transparantie of helderheid over is wat de politie precies nu doet en op basis van welke data ze dat doen. Ja en het argument dat je dan vaak hoort is van "Ja, ja, nee, de politie kan natuurlijk niet gaan vertellen hoe ze werken, want dan gaan criminelen… eh... daar omheen proberen te gaan, of gaan ze die data proberen te manipuleren”. Maar ik vind dat zelf eigenlijk een beetje een-een-een excuus om de transparantie die wij als burgers nodig hebben niet te geven. Wij moeten natuurlijk gewoon weten wat er gebeurt en op basis van welke data inderdaad, of er wordt samengewerkt met bedrijven, om te kunnen beoordelen of we vinden dat de politie eh… zijn taak goed volbrengt.
 

00:20:22

Inge Wannet: Nouja, en zie je een manier waarop we dat af kunnen dwingen?
 

00:20:26

Naomi Appelman: Ja, ik denk dat de regulering in dat opzicht echt heel erg belangrijk is om ervoor te zorgen dat duidelijk is wanneer dit soort systemen ingezet mogen worden. Of nou ja, als ze überhaupt ingezet mogen worden, ehm... daar transparantie over af te dwingen. En ook… nouja, de-de klassieke checks and balances, dus een vorm van toezicht daarover die buiten de politie zelf staat. Want nouja, de politie zelf vindt haar eigen taak natuurlijk heel belangrijk, het zijn mensen die, nouja, dat graag goed willen doen. Maar dat zorgt er ook voor dat mensen alleen vanuit dat perspectief kijken, dus het is daarom heel belangrijk om… ehm… nouja, of een instantie of een organisatie te hebben die buiten de politie staat, die kan beoordelen in welke situatie je, nouja... automated decision-making systemen zou mogen gebruiken.

00:21:12

Inge Wannet: Wat heeft die bredere inzet van predictive policing volgens jou voor consequenties voor die samenleving, en de rechtspraak, en de rechten en vrijheden van burgers?

00:21:20

Naomi Appelman: Ja, dat is een hele mond vol. [Inge en Naomi lachen] Grote vraag, maar ik denk dat dit soort systemen ook eh... een hele grote impact kunnen hebben. Eh… want wat is de rechtstaat? Dat is, nouja, in abstracte zin gaat dat over het geloof in radicale gelijkwaardigheid van mensen eh… in de samenleving, nouja, ten opzichte van elkaar en ook voor de wet en-en over democratische legitimiteit, over de dingen die de overheid doet. En ik denk dat w – over wat we net hebben besproken, dat dit soort systemen op al die punten een probleem kunnen eh… vormen, omdat ze dus, nouja, bestaande ongelijkheden kunnen-kunnen versterken of reproduceren. Eh dat ze mensen kunnen stigmatiseren en aan andermans verleden kunnen houden. Ehm… het maakt democratische controle kan het moeilijker maken.

00:22:08

Inge Wannet: Je gaf al aan: we hebben al een eh… aantal lopende projecten op het gebied van predictive policing. Niet helemaal duidelijk welke allemaal, [Naomi grinnikt] maar van sommigen weten we het. Wat zou de overheid eh… daar nu mee moeten doen?

00:22:21

Naomi Appelman: Ja, we hebben al besproken wat voor grote effecten het gebruik van dit soort systemen kan hebben en waarschijnlijk heeft. En… ja, we hebben het over overheidshandelen, niet alleen algemeen overheidshandelen maar specifiek de politie, dus echt de repressieve tak van de overheid. En dan zou ik zeggen: als... er nog niet een duidelijke, bewezen manier is om dit zonder problemen in te zetten, moet de politie dit soort systemen niet gebruiken.

00:22:49

Inge Wannet: Dus jij zegt: stekker eruit, terug naar de tekentafel. Kom maar terug als er een eh… echt goed plan is.

00:22:55

[triphopmuziek begint, speelt door terwijl Naomi en Inge praten]

Naomi Appelman: Ja precies, en ik d – het voorzorgsprincipe wordt tuurlijk ook gewoon heel vaak toegepast bij de overheid. Dat je, ja, als je niet zeker weet dat je het goed kan doen, dat je het dan niet doet totdat je dat zeker weet.


Inge Wannet: Naomi, bedankt!

Naomi Appelman: Ja, heel erg graag gedaan!


 

[muziek wordt luider, intermezzo van ongeveer een halve minuut, speelt nog even door terwijl Inge en Lotte praten]
 

00:23:35

Inge Wannet: Lotte, jij werkt bij Bits of Freedom vooral op overheidssurveillance. Welke links zie jij in dit gesprek met ons werk?

00:23:42

Lotte Houwing: Eh… Ik zie veel links in onderzoek wat we doen naar de politie. Daaruit komt eigenlijk een beeld naar voren dat de politie stelselmatig de wet overtreedt. Daarom roepen we daar heel erg op voor meer toezicht op de politie en ook meer handhaving door de Autoriteit Persoonsgegevens. En verder waarschuwen we ook heel veel voor trends die we zien, met name ook in werk eh… van de politie, waarbij er steeds meer wordt gekeken naar afwijkend gedrag in plaats van eh… al gepleegde strafbare feiten. En eh... dit brengt eigenlijk verschillende dingen met zich mee. Daarvoor moet de politie namelijk steeds meer gegevens verzamelen en dus komen burgers steeds weer eerder in het vizier van die politie. En anderzijds levert het ook vraagstukken op als: Wie bepaalt eigenlijk wat afwijkend gedrag is? Wat is dan de norm? En is afwijkend altijd wel een probleem? Is op die manier niet elke burger de hele tijd een potentiële verdachte? Wordt onze samenleving daar eigenlijk wel beter op? En natuurlijk als derde de Big Brother Awards, waarbij we hopen dat het het ministerie van Justitie en Veiligheid echt wakkerschudt. Dat het duidelijk is dat er grenzen worden overschreden, en dat er echt iets te doen staat.

00:24:50

Inge Wannet: En ehm… wat doet Bits of Freedom hieraan?

00:24:53

Lotte Houwing: Wij eh… houden scherp in de gaten wat de politie met eh… met nieuwe technologie doet. Eh… we roepen op tot het maken van deze visie bij de politie. We stellen kritische vragen ehm… en we werken aan bewustwording, dus we leggen jullie altijd graag uit waar de zorgen zitten.

00:25:11

[paar seconden pauze, triphopmuziek begint te spelen terwijl Inge praat]

Inge Wannet: Het ministerie van Justitie en Veiligheid ontving de Big Brother Awards expertprijs onder andere voor de inzet van predictive policing, maar daarmee zijn we er nog niet. De komende weken loop ik met jullie langs een reeks privacyblunders en licht deze toe met onze experts. En blijf luisteren, want volgende week is er weer een nieuwe aflevering van deze Big Brother Awards-podcast.

Deze podcast werd gemaakt door Bits of Freedom. Je hoorde mij: Inge Wannet. De podcast werd geproduceerd en geëdit door Randal Peelen. Heel veel dank gaat uit naar onze donateurs, partners en vrijwilligers, en alle experts die hun medewerking hebben verleend aan deze podcast. Wil je ook onderdeel zijn van onze beweging? Ga dan naar onze website en doneer, abonneer je op onze nieuwsbrief of meld je aan als vrijwilliger.

[muziek speelt nog ongeveer een minuut door]