Hoe vertalen ethische principes zich naar de dagelijkse werkzaamheden van een IT'er?
Hoe kunnen ethische afwegingen die voorheen vanuit de uitvoering werden gemaakt, nu vanuit een data-analysevraagstuk worden gemaakt? Dat is ingewikkeld, omdat daar aspecten bij komen kijken van: Hoe zit je data dan in elkaar? Zit daar een bias in die data? Hoe voorkom ik daar discriminatie in? Hoe maak ik daar ethische afwegingen? Die afwegingen worden ook door analisten gemaakt die soms het primaire proces lang niet zo goed kennen als de uitvoerder in de praktijk.
TJERK EN REMCO_2
(Intro met abstracte beelden met daaronder een korte begintune.)
(In beeld verschijnt de tekst:
microlearnings
Ethiek)
(Twee mensen zitten tegenover elkaar in een verder lege kantoorruimte en starten het gesprek:
de heer Tjerk Timan begint, de heer Remco Boersma reageert.)
(In beeld verschijnt de tekst:
dr. Tjerk Timan
TNO, afdeling Strategy, Analysis & Policy)
TJERK TIMAN: Vanaf die ethische discussies die er gevoerd worden tussen allerlei partijen met verschillende actoren vanuit uw eigen achtergrond, maar ook met het team waarmee u werkt,
hoe vertalen die ethische principes zich naar de dagelijkse werkzaamheden van een IT'er?
(In beeld verschijnt de tekst:
ir. Remco Boersma
projectleider Data-analyse en AI, Ministerie van Justitie en Veiligheid)
REMCO BOERSMA: Dat is best een lastige vraag, eigenlijk.
(In beeld verschijnt de tekst: Ethische afwegingen)
Je ziet dat ethische afwegingen die voorheen echt vanuit de uitvoering werden gemaakt, de Marechaussee die verweten wordt etnisch te profileren, is natuurlijk echt in de locatie Schiphol
waarin ze mensen uit de rij halen. Dat is natuurlijk heel duidelijk zichtbaar dat je dat doet. En met welke grond je dat doet. Als je dat aan de voorkant gaat halen, dus vanuit een data-analysevraagstuk diezelfde afweging wilt maken, is dat best wel ingewikkeld, omdat daar aspecten bij komen kijken van:
Hoe zit je data dan in elkaar? Zit daar een bias in die data? Hoe voorkom ik daar discriminatie in? Hoe maak ik daar ethische afwegingen? Die worden ook door analisten gemaakt die soms het primaire proces lang niet zo goed kennen als de uitvoerder in de praktijk.
(In beeld verschijnt de tekst: Kennis van primair proces van belang bij afweging ethiek)
Dus die samenwerking, om daar een goede afweging in te maken, die wordt denk ik, of die is essentieel. Maar dat brengt dit soort vraagstellingen veel meer naar de ontwikkelingskant.
TJERK: Ja. Dus de ontwikkelaar wordt eigenlijk veel zwaarder belast met dit soort vragen. Waar de analist of de ontwikkelaar alleen op z'n eigen stukje zat, moet hij nu allerlei dingen gaan meenemen
die misschien buiten de primaire taak liggen. Is dat eerlijk? Kunnen we van de AI-ontwikkelaar verwachten dat hij of zij alle ethische dilemma's meeneemt en opvangt? Of hoe moeten we methodologisch daarmee omgaan?
REMCO: Je kan dat aan de data-analist zelf best vragen, om daar goeie afwegingen in te maken. De vraag is of hij alle elementen beschikbaar heeft om dat te kunnen doen. En ik vond wel aardig dat we in een werkgroep over fairness discussie hadden en eigenlijk pas uit die discussie het gevoel naar voren kwam, dat een analist zei: Oké, ik heb er eigenlijk nog nooit zo tegen aangekeken om bijvoorbeeld het geslacht mee te nemen, wel of niet. Hij zei: Voorheen dacht ik, het is heel logisch om dat in mijn model te zetten, omdat daar een betere categorisering uit valt. En hij zei: Ik ga nu, aan de hand van deze discussie opnieuw bij mezelf kijken van: Is dat nou logisch, dat ik dat gegeven meeneem of niet? En die afwegingen creëer je alleen maar door gezamenlijk die discussie ook te voeren.
TJERK: Ja. Dus dat lerende effect om buiten je eigen model te kijken en de boer op te gaan. Hoe wordt dat georganiseerd bij JenV, in dit geval?
(In beeld verschijnt de tekst: Er is een data-analyse netwerk om ethische dilemma's bij aan te kaarten)
REMCO: We hebben een data-analysenetwerk waar we dit soort discussies met elkaar voeren en ook voorbeelden aan elkaar presenteren, waar we kritisch proberen door te vragen aan elkaar: Waarom heb je dit op deze manier gedaan? Welke afweging heb je daarin gemaakt? Daar is als spin-off een werkgroepje uitgekomen, dat zich rond 'fairness metrics' eens een keer is gaan verdiepen en gezegd: Hoe passen we die 'fairness metrics' nu eigenlijk toe? Die eerlijkheidsbeginselen, hoe werken die nou door in ons dagelijks werk?
TJERK: Ja. Dat is bij JenV. Zijn er ook connecties naar Rijksbreed? Is er ook weer een connectie naar beleid? Hoe is de interactie tussen de data science-praktijk en de hoge ethische kaders en richtlijnen
die gemaakt worden?
REMCO: Er wordt wel vanuit BZK natuurlijk heel sterk gekeken: Kunnen we daar meer Rijksbrede kaders neerzetten? Die discussies lopen rond de toepassing van de IAMA, de Impact Assessment Mensenrechten en Algoritmes of de AI-systeemprincipes voor non-discriminatie. Dat wordt natuurlijk in een Rijksbrede context bediscussieerd en gekeken. Ik merk dat de individuele data science-teams
die er zijn interdepartementaal elkaar nog best wel moeilijk vinden. Er worden wel werkbezoeken afgelegd onderling, maar er is niet een Rijksbrede community die daarop inzoomt.
TJERK: En die zou er wel moeten zijn? Of, dat zou helpen?
(In beeld verschijnt de tekst: Rijksbreed samenwerken en elkaar vinden)
REMCO: Het zou natuurlijk voor de versterking wel helpen om ook af en toe buiten de context
waarin ik acteer, van Justitie en Veiligheid, ook natuurlijk eens een keer andere disciplines daarin mee te nemen. Die hebben misschien op bepaalde stukken wel een heel andere invalshoek dan wij.
TJERK: Ja. We zijn nu heel erg aan het ingaan op de relatie tussen die ethische principes en de data science-praktijk. Er is natuurlijk ook nog een sociale en een juridische werkelijkheid. Hoe vertalen die ethische principes en die overwegingen zich naar wettelijke kaders waarin JenV kan acteren? Wordt die discipline ook meegenomen en hoe werkt dat tussen de jurist en de data scientist?
REMCO: Justitie heeft best wel wat wettelijke kaders waar die zich aan dient te houden. Daar zit soms ook wel wat onduidelijkheid in. Dan wordt er gezegd: Oké, je dient je te houden aan de AVG, maar de politie heeft voor opsporing en vervolging z'n eigen Richtlijn Opsporing en Vervolging. Die is niet belast met de AVG. Je merkt in discussies dat af en toe dat door elkaar loopt. Is dit een domein waarin we vallen onder de Richtlijn Opsporing en Vervolging of niet?
(In beeld verschijnt de tekst: Zoek uit onder welke richtlijnen je (project) valt)
Dus dat maakt het soms wel ingewikkeld, om te kijken: Welk wettelijk kader is van toepassing? En welk wettelijk kader van toepassing is, heeft effect op hoe je omgaat met bijvoorbeeld privacy of ethiek.
TJERK: Ja, precies. En dat is een spel dat nooit af is, neem ik aan?
REMCO: Nee. Nee, dat is continu een afweging die wij zelf natuurlijk maken, ook op: Waar dient het veiligheidsbelang? Waar prevaleert dat boven het privacybelang? Want het privacybelang is geen absoluut recht, dat is 'n afweging tussen verschillende waardes. Een waarde van: Is de samenleving veilig? Kunnen we individuele veiligheid garanderen ten opzichte van de afbreuk in privacy die dat soms vraagt.
(Outro met abstracte beelden en korte eindtune.)
(In beeld verschijnt de tekst:
microlearnings
Ethiek)
(Het laatste beeld bevat het logo van de Rijksoverheid met daaronder de tekst:
Deze microlearning is tot stand gekomen door een samenwerking tussen de Leer- en Ontwikkelcampus (LOC) van UBR, de directie CIO Rijk van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BKZ) en de Rijksacademie voor Digitalisering en Informatisering Overheid (RADIO))