Ethiek in de praktijk. Afl. 7 - Ethiek en gezichtsherkenning
Er zitten tal van voordelen aan gezichtsherkenning, een soort toepassing die ook ethisch verantwoord kan worden ingezet. Dat is de mening van Katinka Knops (politie) en Alex Corra (SVB). Dat gaat niet zomaar, ontdekt ook host Robin Rotman. De meeste betrokken organisaties, leveranciers en gebruikers, zijn nog op ontdekkingsreis. Ook de politiek onderzoekt deze grenzen.
Ethiek in de praktijk. Afl. 7 - Ethiek en gezichtsherkenning
'Hoe kunnen we gezichtsherkenning voor ons laten werken?'
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en Privacybescherming.
'Als het over dit onderwerp gaat,
denk ik dus ook vaak dat we als samenleving... Dat is niet alleen
een vraag voor de politie, want die camera's zijn van iedereen.'
Te gast vandaag: Alex Corra,
beleidsadviseur recht en ethiek bij de SVB. Welkom.
En Katinka Knops, adviseur ethiek bij de politie. Leuk dat jullie er zijn.
Katinka, we hebben het over gezichtsherkenning en over de politie.
Oeh, dat is altijd interessant.
Ik kan me voorstellen dat jij als adviseur ethiek bij de politie
op het gebied van ethiek vaak praat over gezichtsherkenning.
Is dit nou weer dat oeroude ethische dilemma opsporing versus privacy?
KNOPS: Dat komt daar zeker in terug.
Alleen als je kijkt naar gezichtsherkenning:
de politie heeft een taak die uit drie onderdelen bestaat
en behalve de opsporing is dat ook het handhaven van de openbare orde
en de hulpverlening. Eigenlijk zou je op alle drie die taakgebieden
toepassingen kunnen bedenken van gezichtsherkenning.
En als het gaat om de ethiek
komt er ook meer in beeld dan alleen privacy, wat mij betreft.
Maar dat is wel een belangrijke. ROTMAN: Wil ik straks meer over horen.
Eerst even kijken waar Alex staat in dit dossier.
Alex, als jij denkt aan gezichtsherkenning,
heb je dan vooral positieve of negatieve associaties?
CORRA: Toch wel kritischer, om het zo maar te zeggen.
Dat je denkt: wat kan je er allemaal mee en waar gaat dat toe dienen?
Het is superinteressant vanuit technisch perspectief
wat je ermee kan en hoe het werkt.
Maar vanochtend stond er in de krant een stukje of las ik een berichtje
over Microsoft en het onderdeel van zijn suite van AI-bouwblokken binnen Azure.
Daar hebben ze een gezichtsherkennings- module en die gaan ze beperken.
Ze hebben juist vanuit ethisch perspectief een kader aangenomen
en gezegd: wij gaan bepaalde onderdelen daar niet meer zomaar in aanbieden.
Een van die onderdelen is emotieherkenning.
Omdat men zegt: De impact daarvan, dat weten we toch niet helemaal zeker.
Misschien heeft het ook te maken met onzekerheid
rond de kwaliteit van dat soort technolo- gieën, maar heeft men gezegd:
'Dat gaan wij niet meer aanbieden als een van de standaardproducten.'
ROTMAN: Dat stemt jou tevreden dan.
-Vooral dat ze erover nadenken
en er voorzichtig mee zijn. Voorzichtig- heid met dit soort technologie is goed.
KNOPS: Daar sluit ik me bij aan
en dat is wat wij als politie ook erg belangrijk vinden,
want het behoud van het vertrouwen in de samenleving is ontzettend belangrijk.
En wij willen dan ook die technologie zo gericht mogelijk inzetten.
ROTMAN: Jij zegt: Het gaat niet alleen over privacy.
'Het gaat niet alleen over opsporing, het is veel breder.'
Kun je een beetje schetsen wat voor toepassingen jij dan allemaal ziet?
Waar hebben we het over?
-Dan begin ik met zeggen
dat de politie op dit moment gezichts- herkenning niet operationeel inzet.
De Tweede Kamer en de vorige minister van Justitie
hebben gezegd dat de politie dat niet kan inzetten,
tenzij we zorgen voor een deugdelijk juridisch en ethisch kader.
Dat hebben we inmiddels ontwikkeld. Dat moet nog wel vastgesteld worden
en dan zal het ook naar de Tweede Kamer gaan.
En dat kader willen wij dus gaan gebruiken om ideeën
voor de inzet van gezichtsherkennings- technologie aan te toetsen.
ROTMAN: Weet je wat ik grappig vind, Alex?
Ik denk dat een boel mensen niet eens in de gaten hebben
dat de politie dit nog niet operationeel gebruikt.
Ik denk dat veel mensen denken: dit is al aan de orde van de dag. Toch?
CORRA: Denk ik ook, jazeker. Omdat camera's overal aanwezig zijn
en omdat het ook zeker in tv-series supervaak gebruikt wordt van:
'kijk, met de camera zagen we op anderhalve kilometer afstand
ROTMAN: Satelliet zoomde in.
-dat Pietje daar stond.'
Terwijl, het grappige is natuurlijk ook dat sciencefiction en realiteit
door elkaar heen lopen en ondertussen de technologie veel beter is geworden.
Dus inderdaad kan je mensen op, misschien niet op lange afstand,
maar wel door een boel verschillende plekken heen volgen.
Maar of het ook daadwerkelijk zo gebruikt wordt?
Ik weet dat er weleens discussie is over verkeerscamera's gebruiken
voor het volgen van verdachten als er een overval is geweest of zo.
Maar dacht ik misschien dat het meer gebruikt werd.
ROTMAN: Wij hebben nu de mazzel dat we aan tafel zitten met Katinka.
Die denkt mee over ethiek en gebruik door de politie.
Je hebt meegeschreven aan het ethisch kader.
Dat is een werkdocument, de Tweede Kamer gaat daar over nadenken
en debatteren. Eigenlijk heb ik twee vragen in eerste instantie:
Kun je schetsen welke toepassingen jullie daar noemen?
Waarvan jullie zeggen: Daar moet de Kamer echt over nadenken,
want dit zou interessant kunnen zijn.
En ten tweede: Welke dilemma's schets je?
Want ik kan me voorstellen dat je niet per se verdedigt
hoe we ermee moeten omgaan.
Jullie schetsen volgens mij vooral 'waar hebben we het eigenlijk over', toch?
KNOPS: Het kader is geen opsomming van 'dit wel en dat niet'.
Ik zei net ook: Ethiek is altijd contextspecifiek.
Dus het kader is iets om ideeën aan te toetsen.
En wij hebben het vanuit drie perspectieven in beeld gebracht.
Dat is inderdaad de techniek die Alex al noemde,
het juridische en het ethische.
En aan de hand van allerlei ideeën hebben wij daar ook
in een brede online community binnen de politie over gesproken
en daar de discussie over gevoerd
en de uitkomsten daarvan hebben we gebruikt om af te leiden
wat nou de factoren zijn die een rol spelen bij het maken van die afweging.
En daarin zijn we op tien factoren uitgekomen die daar belangrijk bij zijn.
Dan moet je bijvoorbeeld denken aan: hoe erg is het waarvoor je het wil inzetten?
Gaat het om een terrorist opsporen
of wil je inderdaad verkeersovertreders hiermee pakken.
En wat ook heel belangrijk is, is de locatie waar je het gaat doen.
Is dat een plek waar veel mensen voorbijkomen?
Ook de duur is belangrijk: voor hoelang?
Wil je dit doorlopend inzetten of alleen kortdurend?
En het kader is erop gericht
dat we deze technologie zo gericht mogelijk willen gaan inzetten.
ROTMAN: En dat gaat ook over, om dat lijstje aan te vullen,
want dat vind ik relevant,
misschien ook: hoelang bewaar je het en wie hebben er toegang toe?
KNOPS: Dat zijn inderdaad allemaal aspecten
die daarbij een rol spelen en wat we zeker ook niet moeten vergeten
in het algemeen bij het gebruik van allerlei nieuwe technologie,
is dat je goed moet kijken welke alternatieven er zijn,
omdat vaak toch makkelijk op het moment dat er nieuwe mogelijkheden zijn,
technologie als een oplossing voor alles wordt gezien.
ROTMAN: Alex, als jij nou denkt: er zijn tien punten waarover we nadenken.
Katinka heeft er een paar genoemd.
Kun jij nog wat dingen noemen? Kijken of ze die al geïdentificeerd heeft.
CORRA: Ik vind het wel interessant,
want hoe ga je dan ook de verantwoordelijkheid erin leggen?
Er wordt veel gesproken over human in the loop.
Is dat een onderwerp wat bijvoorbeeld daarin meegenomen is?
Je ziet dat veel van die technologie zit ingebakken in allerlei camera's
die commercieel verkocht worden. Hoef je alleen maar aan te zetten.
Dus het is een kwestie van 'hebben we het aan of uit?' in sommige gevallen.
Is daar nog iets over? Wanneer iemand beslist om 't daadwerkelijk aan te zetten.
KNOPS: Zeker, we hebben bij dat kader ook een toetsingsprocedure ontworpen,
die onafhankelijk is, checks and balances en besluitvorming.
En er zitten ook gewoon een aantal harde randvoorwaarden omheen.
Maar een van de factoren is inderdaad ook:
kijk goed wie de leverancier van je systeem is.
Daar hebben we ook al voorbeelden van in de media gezien.
ROTMAN: Waar gaat de informatie heen. KNOPS: Zitten daar achterdeurtjes in?
Maar dat het inderdaad heel belangrijk is
wat je met die data doet en wie daar toegang toe heeft.
Dat is allemaal meegenomen in dit kader.
ROTMAN: We gaan dit debat in de Kamer volgen.
Er valt nog veel meer over te zeggen. Ik wil casussen,
concrete voorbeelden waarvan jullie zeggen: Dat komt op ons af.
'Dat is misschien technisch mogelijk of gaat zeer binnenkort mogelijk zijn
en daar moeten we iets van vinden met z'n allen. Gaan we dat toepassen?'
Katinka, heb jij een voorbeeld? Bij demonstraties of zo.
Camera's die de massa in de gaten houden.
Heb jij een voorbeeld van een interessante casus?
KNOPS: Ja, waar interessante dilemma's in zitten.
Dan denk ik inderdaad aan het gebruik van gezichtsherkenning bij demonstraties.
Demonstraties verlopen niet altijd vredig. Soms breken er rellen uit.
En wat je dan ziet gebeuren, is dat de mensen die gaan rellen
hun gezicht onherkenbaar maken.
ROTMAN: Sjaaltje ervoor, mutsen op. KNOPS: Mondkapjes.
En een vraagstuk wat opgeworpen is:
kunnen we die mensen dan niet in beeld brengen voordat de rellen uitbreken,
want dan hebben we ze herkenbaar op beeld.
ROTMAN: Er staan camera's op die meute, die zien al die mensen.
KNOPS: Voor alle duidelijkheid, dit wordt niet toegepast.
Maar zo zou je dat inderdaad kunnen doen.
ROTMAN: Maar 't zou je achteraf kunnen helpen om die mensen toch te herkennen.
KNOPS: En aan de hand van hun gezicht,
op het moment dat zij al bekend zijn bij de politie.
De politie heeft ook een database met mensen
die verdachten zijn geweest of veroordeeld
en dan zouden ze op die manier herkend kunnen worden.
ROTMAN: Hier moeten we iets van vinden. Alex, hier al een gevoel bij?
CORRA: Ja, zeker wel. Het is natuurlijk interessant om te zien...
Er is zeker in de afgelopen 10 à 15 jaar veel roep geweest om meer veiligheid,
gezien alles wat er gebeurd is ook nog,
de aanslagen van 9-11, en alle andere terroristische aanslagen,
wordt er veel gezegd: we moeten meer doen
om die veiligheid in het publieke domein te garanderen
en om de burgers te beschermen.
Tegelijkertijd, als je ziet hoe die technologie zich ontwikkeld heeft
en op welk niveau je mensen nu kan herkennen
en hoelang je mensen kan volgen als je die technologie zomaar loslaat,
dat heeft wel implicaties voor jouw privacy en voor je zijn.
ROTMNA: En dit is natuurlijk wat jullie omschrijven in dat kader.
Daar moeten we met z'n allen wat van vinden en over praten.
KNOPS: Jazeker, en op het moment dat jij mensen op beeld gaat vastleggen
op moment dat zij vreedzaam aan het demonstreren zijn,
maken zij gebruik van belangrijke grondrechten die we hebben:
vrijheid van meningsuiting, vrijheid van demonstratie.
Dus vanuit ethisch perspectief
is daar een groot vraagteken bij te plaatsen of dat een goed idee is.
ROTMAN: Durf je wel gebruik te maken van jouw recht op demonstreren
als je weet dat er camera's op je snufferd staan.
CORRA: Ik zag een keer documentaire en daarin zag je
mobile facial recognition units. Ik weet niet meer welk land dat was,
maar die stonden daar tijdens demonstraties.
Er stond ook heel groot op: mobile facial recognition unit.
CORRA: Daarvan kan je zeggen: fantastisch, dan weten mensen
dat ze in de gaten gehouden worden, dus dan gaan ze niet relschoppen.
ROTMAN: Maar dat houdt ze misschien tegen om überhaupt te komen.
CORRA: Dat is de interessante andere kant.
ROTMAN: Dit is een mooi voorbeeld van: we zijn er nog niet helemaal uit.
Wat zijn de voorwaarden? Alex, heb jij een voorbeeld
van een casus waarvan jij zegt van...
-Wat ik een interessante vind,
en dat is er eentje die ik ook bij het CIP-congres benoemd heb,
was data van zelfrijdende auto's en beelddata daarvan.
Die auto's filmen 360 rond zichzelf om goed te kunnen rijden,
maar volgens mij heeft Tesla zo'n beveiligingsmodus
waarbij die camera's aanslaan als mensen in de buurt komen.
ROTMAN: Die scannen natuurlijk ook die mensen.
Er zijn veel discussies geweest over: moet je...
Sommige mensen zetten dat op YouTube. Er gebeuren allerlei dingen mee.
Maar dat zou je ook gaan gebruiken.
Dan heb je mobiele gezichtsherkenningsunits.
Die zou je ervan kunnen maken.
KNOPS: Maar dat is het algehele punt,
dat deze technologie succesvol ingezet kan worden
door de alomtegenwoordigheid van camera's in de samenleving
en de alomtegenwoordigheid van beeld.
En als het over dit onderwerp gaat, denk ik dus ook vaak
dat we als samenleving... Dat is niet alleen een vraag voor de politie,
want die camera's zijn van iedereen.
Tegenwoordig is je deurbel een camera.
Er zijn reclames op tv dat je je niet meer veilig kan voelen in je huis
als je daar geen camerabewaking hebt.
Dat speelt erg op een gevoel in
dat we maar steeds verder moeten gaan met die beveiliging.
Dus daarom vind ik dit ook een onderwerp
waar de samenleving over na moet denken.
Hoe wij met al die camera's in de publieke ruimte en overal om willen gaan.
ROTMAN: Heb je 'n no-brainer, Alex, waarbij je gezichtsherkenning moet doen?
'Geen twijfel over mogelijk. Geen discussie. Wat mij betreft inzetten.'
CORRA: Dat is wel een lastige. Ik denk het wel,
maar er zijn wel edge cases, zo heet dat dan.
Eentje waar ik aan denk is bijvoorbeeld het gebruik van gezichtsherkenning
als het gaat om kinderpornografisch materiaal
om daarmee kinderen die daarin voorkomen
te herkennen die vermist zijn. Ik weet dat dat soort dingen ingezet worden.
Dat lijkt me een logische applicatie of eerder verantwoorde applicatie,
omdat je dan ook probeert mensen te redden in een moeilijke situatie.
Nood breekt wet, in zekere zin.
Dat lijkt me op dat moment wel een ethische verantwoording.
ROTMAN: Dan gaat de technologie voor je werken.
Katinka?
-Misschien een voorbeeld
wat daarbij aansluit. Stel, je hebt een foto van een verdachte
en er is heel veel beeldmateriaal beschikbaar
en dat is bijvoorbeeld ook gemaakt op een locatie
waar sowieso camera's hangen
en waar iedereen dat eigenlijk ook wel nodig en vanzelfsprekend vindt.
Dan kan die technologie natuurlijk wel helpen
om op een hele efficiënte manier dat te bekijken.
ROTMAN: In plaats van mensenogen laat je het door een slim systeem doen.
KNOPS: En de techniek is misschien nog wel beter
omdat die niet afgeleid raakt van wat die nog meer ziet op die beelden.
ROTMAN: Overigens hebben we ook een interessante aflevering opgenomen
over hoe we die AI voor ons kunnen laten werken.
Dat is ook de moeite van het luisteren waard.
Wanneer kan het echt niet? Dat je denkt: die casus komt weleens voorbij.
Moeten we gaan niet doen.
CORRA: Ik vind zelf, niet per se gezichtsherkenning,
maar de inzet van camera's in combinatie met emotieherkenning.
Dat lijkt mij... Dan ben je...
Daar zijn zoveel issues mee of dat wel goed meet
wat je daadwerkelijk wil meten, denkt te meten.
En ook: moet iemand anders kunnen zien wat er in mijn hoofd gebeurd?
In mijn inner self.
Ik denk dat het belangrijk is dat we als mensen
ook die verschillende identiteiten: je hebt je uiterlijke wereld,
je wereld thuis, je wereld op je werk...
Daar heb je allemaal identiteiten in en je hebt een identiteit in je hoofd
en dat zijn denk ik wel belangrijke dingen om voor jezelf te kunnen houden.
ROTMAN: Heb je ook nog een no-go, Katinka?
KNOPS: Waar ik in algemene zin kritisch naar zal kijken,
is de inzet van dit middel als het gaat om de publieke ruimte.
Dan komt dat ook al dichtbij. En inderdaad,
het gebruik van emotieherkenning of afwijkend gedrag
zijn daar nog weer volgende stappen in,
maar dit is al een hele ingrijpende technologie voor mensen.
Want het is niet alleen je privacy,
maar het gaat ook over iets als autonomie
dat op het moment dat het voor de veiligheid noodzakelijk geacht zou worden
gezichtsherkenning op het Leidseplein in Amsterdam te doen en jij wil dat niet,
en zo kan je nog andere locaties, op een vliegveld, bedenken.
Zou dat betekenen dat jij je niet meer vrij kunt bewegen
in belangrijke delen van de maatschappij?
Dat is helemaal een vraag op het moment dat je niet eens weet dat dat gebeurt.
Dit is wel iets waar we denk ik heel goed over na moeten denken.
ROTMAN: Concrete tips en oplossingen.
Je werkt bij de overheid of een commerciële organisatie
of in ieder geval, het thema gezichts- herkenning komt op je pad
en dient zich aan als een oplossing voor iets.
Wat kun je nou doen om de juiste ethische keuzes te maken?
Het eerste wat je moet doen, die ga ik al prijsgeven, denk ik:
dat is wat we doen
en wat jij nu aan het doen bent, Katinka, met de Tweede Kamer.
Denk er vooraf over na en besluit vooraf onder welke voorwaarden:
Wat zijn de kaders? Wat willen we bereiken?
Denk erover na, praat en debatteer erover
en maak een bewuste keuze überhaupt.
Zet niet als een kip zonder kop die technologie in.
Dat is misschien wel de allerbelangrijkste tip,
maar die brengen we nu in de praktijk met deze podcast.
Wat kunnen we nog meer doen? CORRA: Ik denk dan aan twee dingen.
In de eerste plaats denk ik: stel de juiste vragen.
Als het gaat om gezichtsherkenning moet je twee belangrijke vragen
naast elkaar bekijken. Eén is de machts- en controlevraag:
willen we dit niveau van controle op een bepaalde plek in een bepaalde context?
En de andere is de kwaliteit van de gezichtsherkenning zelf.
Dus biedt die technologie wat wij denken dat ie biedt
of herkent die alleen blanke mannen
of juist niet de mensen die in minder vertegenwoordigde groepen die vaak...
ROTMAN: Zorg ervoor dat als je die tech inzet:
het moet verdikkeme wel werken.
KNOPS: Nou heb ik begrepen dat die techniek inmiddels
behoorlijk doorontwikkeld is en dat dat inmiddels minder een probleem is.
Maar waar je in dat verband wel aan kan denken,
zijn ook de omstandigheden waaronder je het doet
en wat voor soort camera's je gebruikt.
Is er goede belichting of is het schemerig, te donker, regen?
Dus die omstandigheden spelen een rol voor de kwaliteit van het beeld,
want op het moment dat je geen goede beeldkwaliteit hebt
kan er ook geen goede match plaatsvinden
en neemt het risico op verkeerde matches toe, met alle gevolgen van dien.
Dus dat is belangrijk in die hele context om ook mee te nemen.
ROTMAN: Dan toch weer bij jou, Katinka:
Alex zegt: de technologie moet gewoon goed werken
en jij zegt dat het lijkt dat dat de goede kant op gaat.
Wat zijn voor jou nog de tips en tricks, behalve praat erover,
denk erover na, wat zijn de randvoorwaarden: dat hebben we gehad.
Wat zijn nog meer tips en oplossingen voor gezichtsherkenning?
KNOPS: Wat ik een hele belangrijke vind,
is dat het niet op een geautomatiseerde manier mag plaatsvinden.
Dat je altijd een human in the loop hebt,
dus altijd ook die menselijke toetsing van het resultaat
dat de technologie oplevert.
ROTMAN: Ik zie Alex gelijk stralen: hè hè.
CORRA: Ik denk dat een van de belangrijkere dingen is,
dat we goed moeten nadenken over, niet alleen de technologie zelf,
en de kwaliteit daarvan, maar ook de con- text waarin die technologie ingebed wordt
en wat voor soort mensen daar met die technologie gaan werken
en wat we verwachten van die mensen? Is dat iemand
die daarover een beslissing kan gaan nemen?
Of hebben we dat niet ingeregeld en is het pas achteraf?
Dat soort keuzes, dat zijn ook designkeuzes,
daar moet je van tevoren goed over nadenken
en dat hoort bij een goede implementatie van data-ethiek.
Niet alleen de technische, maar ook de sociale kant.
ROTMAN: Oké, we hebben er nu 20 minuten over gepraat.
Ik heb eigenlijk... Ik maak me ook altijd een beetje zorgen over dat soort dingen,
daarom heb ik deze vraag van tevoren bij jou gedropt, Alex.
Jij zei: oeh, vooral negatieve associaties.
Als ik er nu zo'n 20 minuten over praat
en ik hoor jullie allebei met de casussen en tips
en waar moeten we over nadenken, denk ik:
als je de vraag stelt 'kunnen we AI voor ons laten werken'
heb ik daar eigenlijk best wel vertrouwen in, als ik eerlijk moet zijn.
Heb jij dat ook niet een beetje stiekem? CORRA: Als we ons best doen wel.
Maar ik blijf er toch wel kritisch op in algemene zin, omdat dat dat gezond is.
Dus ja, je moet technologie proberen goed in te zetten,
maar blijf erbij nadenken waarom je het doet
en niet alleen over hoe, maar vooral ook het waarom.
Dus de why-vraag is belangrijk bij dit soort zaken.
ROTMAN: Katinka, het laatste woord.
-Ja, ik denk ook dat het niet zinvol is,
om techniek in algemene zin af te wijzen.
Want het is inderdaad ook, als ik kijk naar de taak van de politie,
dat van ons verwacht wordt dat we de samenleving veilig houden
en dat we daarom ook de mogelijkheden van nieuwe technologie onderzoeken.
Maar tegelijk is voor ons het behoud van dat vertrouwen van de samenleving
ontzettend belangrijk en is het pleidooi om dat zo gericht mogelijk in te zetten.
ROTMAN: Ik ben blij dat jij, Katinka Knops,
betrokken bent als adviseur ethiek bij de politie.
Volgens mij worden daar de juiste vragen gesteld. Dank je wel.
Dank je wel ook, Alex Corra, beleids- adviseur recht en ethiek bij de SVB.
Wil je meer informatie en andere afleveringen terugluisteren
over data en data-ethiek? Het is zeer de moeite waard.
Het gaat ook over jouw wereld.
Ga naar cip-overheid.nl/uitgelicht of je favoriete podcastapp. Dank jullie wel.