Digitaal Europa - AI-act met Jos van der Wijst
Zijn computers beter dan mensen? Zeker! Op specifieke plekken in ieder geval, zoals aan het schaakbord en bij een spelletje go. Maar is dat wel de goede vraag? Hoe beter we algoritmes kunnen maken en uitvoeren, hoe meer we ons best kunnen doen om Artificiële Intelligentie zo te maken dat we daarmee mensen ondersteunen. Luister naar Jos van der Wijst, lid van de werkgroep Mensgerichte AI van de Nederlandse AI Coalitie.
Digitaal Europa - AI-act met Jos van der Wijst
'Welk probleem lost de AI Act eigenlijk op?'
'De AI Act kent een brede definitie van AI. Wat vind jij daarvan?
Welke uitdagingen gaan gepaard met de ontwikkeling van AI?'
Welkom bij Digitaal Europa. Ik ben Robin Rotman en in deze podcast
van de Rijksacademie voor Digitalisering en Informatisering Overheid
bespreek ik met deskundigen de Europese aanpak van digitale dossiers.
'Zelf zou ik het te ver vinden gaan op moment dat de techniek
beslissingen gaat nemen over mensen zonder dat de mens daarbij betrokken is.
Dat is een nachtmerriescenario.'
Vandaag hebben we het over de AI Act. Te gast: Jos van der Wijst.
Hij is partner bij BG.legal en is gespecialiseerd in IT en recht.
En je bent ook nog betrokken bij de AI Coalitie.
VD WIJST: De Nederlandse AI Coalitie.
-En wat doe jij dan daar?
Ik coördineer de activiteiten op het punt van juridische aspecten van AI.
ROTMAN: [ironisch] Verrassend. We gaan het vandaag hebben over de AI Act.
Dat is Brusselse regelgeving, die wordt over Europa uitgestrooid.
We gaan er in Nederland nog wat van vinden.
We gaan eens even kijken: wat bedoelen we daarmee?
Wat kunnen en moeten we ermee?
Is het goed georganiseerd? Hebben we er nog invloed op?
Ik heb een paar vragen meegenomen
van Loulou Hanna, Nina Krijnen en Ron Roozendaal.
Dat zijn ambtenaren vanuit allerlei geledingen
en we kijken hoever we komen.
Maar eerst toch eventjes: die AI Act,
wat wordt daar nou precies in geregeld?
VD WIJST: De AI Act, of de AI-verordening,
daar worden regels in vastgelegd waar AI-toepassingen aan moeten voldoen.
Juridisch, ethisch, robuust.
Op verschillende aspecten wordt bepaald: waar moet 'n AI-toepassing aan voldoen?
ROTMAN: En gaat dat over bijvoorbeeld bias
waar die niet mag voorkomen? Gaat het over privacy?
Waar gaat dat dan over? Kun je iets concreter zijn?
VD WIJST: Het gaat over al die aspecten. Wat we willen voorkomen,
is dat een AI-toepassing schade toebrengt aan mensen.
Vandaar dat we in Europa ook kiezen voor de human centric AI,
op de mens gebaseerde AI. We willen voorkomen dat die AI-toepassingen
daar schade aan toebrengen.
En daar moeten regels en duidelijkheid voor komen.
ROTMAN: De Europese Commissie heeft dit vorig jaar geïntroduceerd,
na lang wikken en wegen en een hoop onderhandelen,
en nu mogen de lidstaten daar wat van vinden.
In november gaat de Tweede Kamer daarover overleggen.
VD WIJST: Ik geloof van wel. Inmiddels hebben de Europese regeringen
daar al op gereageerd.
Het Europese Parlement heeft er al op gereageerd.
Drie dagen is het amendement op het voorstel.
Dat moet uiteindelijk allemaal tot elkaar gaan komen
en dan moet er één compromistekst voor komen.
Ik heb begrepen dat de verwachting is dat in de loop van 2023
die tekst er moet komen.
ROTMAN: Nu ben jij natuurlijk jurist en betrokken bij de AI Coalitie.
Dus je bent ook betrokken bij het Nederlandse AI-beleid
en wat voor kansen het biedt voor de economie. Jij zit erbovenop.
Je hebt dat ding helemaal doorgespit. Van voor naar achter.
Wat valt jou op? Zijn er dingen waarvan je denkt 'niet zo lekker,
daar moeten we echt nog iets mee'?
-Nou, eigenlijk voel ik me
best wel comfortabel bij wat er ligt. Natuurlijk kan het altijd beter.
Er zijn goede voorstellen gedaan om het te verbeteren en verduidelijken.
Maar in principe vind ik dat wat er ligt, daar ben ik erg blij mee.
Het zet een streep in het zand en daar waren we naar op zoek.
ROTMAN: Streep in het zand. Ik heb vragen meegenomen.
De eerste is van Ron Roozendaal.
Hij is kwartiermaker, plaatsvervangend directeur-generaal digitalisering
bij het ministerie van Binnenlandse Zaken en hij heeft een vraag:
'Welk probleem lost de AI Act eigenlijk op?'
ROTMAN: Nou, ter zake.
VD WIJST: Met name lost het op dat er nog veel vragen zijn over:
Wat mag een AI-toepassing? Waar moet die aan voldoen?
Dat lost de AI Act op, omdat die heel duidelijk formuleert
waar een AI-toepassing aan moet voldoen.
Er zijn nu al regels waar het aan moet voldoen,
er zijn mensenrechtenverdragen, er is een AVG,
maar dat neemt niet weg dat er toch nog veel lacunes zijn
en daar moet deze AI-vordering in gaan voorzien.
ROTMAN: Noem eens wat lacunes waarvan jij zegt:
'Daar is gewoon ruis over in de samenleving'.
Over AI. Misschien bij overheden, bij gebruikers,
bedrijven ontwikkelen natuurlijk al die software.
Wat zijn dan die lacunes?
VD WIJST: Er zijn vragen over welke AI-toepassingen mogen en welke niet.
Deze AI-vordering geeft ook heel duidelijk aan
wat voor AI-toepassingen verboden worden.
Bijvoorbeeld een AI-toepassing zoals in China, de social scoring,
dat je op basis van je gedrag punten krijgt
en dat daar bepaalde privileges of bepaalde verboden aan gekoppeld zijn.
Dat willen per se niet. Dit is een van de dingen die de AI-vordering regelt.
Wat mag wel? Wat mag niet?
-Dit vind ik een mooie.
Jij gaat nu gelijk door. Maar toch, dat is duidelijk,
die kennen we natuurlijk. We hebben allemaal 'Black mirror' gekeken.
Het zijn van die tot de verbeelding sprekende dingen,
social scoring system. Dat willen wij hier niet.
Noem nog eens wat. Is dat misschien ook gezichtsherkenning in z'n algemeenheid?
VD WIJST: Ja, maar dat is een AI-toepassing
die waarschijnlijk in de high risk-categorie valt.
Dus mag wel, maar onder bepaalde voorwaarden.
En dat is wat deze AI-vordering ook geeft.
Die geeft aan: als we vinden dat een bepaalde AI-toepassing
in een high risk-categorie valt,
aan wat voor voorwaarden moet die dan voldoen en blijven voldoen?
Dus de hele levensduur van een AI-toepassing
daarvan moet je in de gaten houden
of die nog steeds aan de voorwaarden voldoet.
ROTMAN: Ze noemen vier categorieën, geloof ik.
Dus er is ook ruimte om in de nationale parlementen vervolgens te gaan bekijken:
'Wil de politie met gezichtsherkenning gaan werken, wat nu nog niet gebeurt,
dan zijn er voorwaarden. Als je ermee wil werken, kan het wel,
mits goed aan deze voorwaarden voldaan.' Zoiets?
VD WIJST: Klopt helemaal. En wat ik heel goed vind in dit voorstel
is dat die definitie van 'wat zijn nu die high risk-toepassingen',
dat blijft flexibel. Dat is geregeld in een bijlage
en die kan dus makkelijk worden aangepast als daar aanleiding voor is.
Daar kunnen dingen vanaf gehaald worden of worden toegevoegd,
omdat we niet weten wat er allemaal aan toepassingen mogelijk gaat worden
de komende jaren.
ROTMAN: En wat zijn dan die high risks in die categorie?
Waar moet ik dan aan denken?
-Bijvoorbeeld een toepassing
in het onderwijs op basis waarvan een kind een bepaald profiel krijgt
en een bepaalde richting in wordt geadviseerd.
Veel toepassingen in het onderwijs zijn per definitie high risk.
Maar ook facial recognition, waar je het net over had.
In bepaalde situaties mag je dat wel gebruiken,
maar dat is een high risk-toepassing
en dus moet dat aan bepaalde voorwaarden voldoen.
Dus op verschillende terreinen, onderwijs, health
zitten toepassingen in die high risk-toepassing.
ROTMAN: Ron Roozendaal werkt bij het ministerie van Binnenlandse Zaken.
Overheden willen graag vaak met slimme technologie werken
om analyses te maken, om te bepalen wie wel of geen recht heeft op een uitkering.
Daar worden mooie slagen gemaakt. Er gaan ook vaak veel dingen fout.
Als Ron nou met zijn team of met medewerkers
of misschien het hele ministerie het gevoel hebben:
'We hebben weer iets tofs bedacht met AI, met slimme software.'
Wat zijn daar dan de high risks, de risico's?
Wat zijn dan voor zo'n ministerie
de voorwaarden om ermee aan de slag te gaan?
VD WIJST: Bijvoorbeeld op het moment dat die toepassingen
beslissingen gaan nemen over mensen, bijvoorbeeld de toeslagenaffaire.
ROTMAN: Het T-woord is weer gevallen, ja ja.
VD WIJST: En er zijn ook voorbeelden van het opsporen van bijstandsfraude.
Dat zijn op zich doelen waar we allemaal wel achter staan
en daar kan een AI-toepassing ontzettend behulpzaam bij zijn.
Alleen dat heeft wel in zich dat het risico's met zich brengt
en dus moet je daar heel zorgvuldig in zijn.
Dat betekent dat het algoritme goed moet zijn,
dat het goed getraind moet zijn, dat de mens altijd
daar een belangrijke vinger in de pap moet hebben.
ROTMAN: De mens moet aan het eind van de rit
de verantwoordelijkheid houden en de keuze maken:
Geen 'computer says no'-taferelen.
-Exact.
Dat betekent zowel in het proces van het ontwerpen van het algoritme
en het trainen van modellen alsook in de uitvoering
je daar constant moet kijken: valt dit nog steeds binnen de regels?
ROTMAN: Wat voor probleem lost het voor mij op als argeloze burger?
VD WIJST: Als het goed is, moet jij hierdoor vertrouwen krijgen
dat een AI-toepassing wordt gebruikt, dat dat veilig is
en dat er goed is nagedacht of je privacy is beschermd en of er geen bias in zit.
Dus het moet vertrouwen geven in het gebruik van AI-toepassingen.
ROTMAN: Nu hebben wij in Nederland, maar ook in Europa, gewoon onze wetten.
Wij hebben onze grondrechten, waarden en normen.
Is dat niet voldoende,
als we nieuwe technologie introduceren of er is een toepassing
en er is gedoe over dat de rechter deze toepassing toetst
aan de grondrechten die we al hadden, privacy, discriminatie...
Waarom dan toch nog een nieuwe act die gaat over AI?
VD WIJST: Omdat er aspecten zijn aan een AI-toepassing
die nu niet in die wetten is geregeld.
Bijvoorbeeld de kwaliteit van een AI-toepassing of...
Dat is nu nog niet geregeld
en met zo'n AI Act zou je wel tools krijgen om dat te gaan toetsen.
Die AI Act kun je vergelijken met een productveiligheidsregel.
Om een veilig product te hebben, moet het aan bepaalde vereisten voldoen
en met deze AI Act wordt daar extra invulling aan gegeven.
Dus er wordt meer handvat gegeven om daar wat mee te doen.
ROTMAN: We gaan naar Loulou Hanna, Rijks I-trainee
bij Infrastructuur en Waterstaat.
'De AI Act kent een brede definitie van AI. Wat vind jij daarvan?'
VD WIJST: Dat klopt inderdaad. Daar is ook veel kritiek op geweest.
De definitie is nu zo ruim dat veel data scientists die ernaar kijken, zeggen:
'Zaken die wij nu niet als AI zouden benoemen, vallen wel onder de definitie...
in deze AI Act.'
ROTMAN: Wat is dan de definitie die nu gehanteerd wordt?
Het is een hele technische definitie, maar het komt erop neer
dat alles waar software voorspellingen doet, dat dat er al onder valt.
En daarvan zeggen dan...
Ik ben geen datascientist of techneut,
maar die zeggen dat dat eigenlijk te ruim is en die willen dat dat beperkt wordt.
ROTMAN: Ben jij het daarmee eens?
-Dat vind ik heel lastig.
Ik doe het met de definitie die er is, ik heb daar niet echt een opvatting over.
Ik denk wel dat een wet werkbaar moet zijn.
Dus op het moment dat het veld aangeeft dat de definitie zo ruim is,
eigenlijk veel te ruim, moet je daar wel iets mee doen.
ROTMAN: Want ze zeggen misschien: dit is meer een definitie van een algoritme.
Het gaat niet zozeer over kunstmatige intelligentie.
VD WIJST: Dat klopt en dat maakt ook dat
die vraag dus een hele technische vraag wordt.
En dat is iets waar juristen vaak weinig verstand van hebben,
dus daar moet je iemand anders een technisch oordeel over laten geven.
Het wordt wel ingewikkeld gemaakt op die manier.
ROTMAN: Hoe los je dat op? Wachten tot de eerste rechtszaken komen?
De rechter gaat dat interpreteren,
dan komt er jurisprudentie en daar doen we het mee.
Of moet je het aan de voorkant regelen?
-Aan de voorkant,
want als je dat aan die rechter overlaat...
Waarschijnlijk heeft die rechter, da's een goede jurist, maar geen techneut,
heeft geen technische achtergrond.
Dat betekent dat ie aan iemand
die wel zo'n technische achtergrond heeft, moet gaan vragen:
'Valt dit wel of niet onder die definitie?'
En dat is jammer, want dan laat je een ander dus een probleem oplossen.
Los dat aan de voorkant op.
ROTMAN: Nu hebben wij een paar toezichthouders
die in meer of mindere mate
vanuit verschillende perspectieven toezicht houden
op het gebruik en de inzet van technologie.
Gaat deze AI Act deze toezichthouders helpen?
VD WIJST: Als je bedoelt dat het toezicht makkelijker wordt, dat denk ik wel,
want deze AI Act gaat duidelijkheid geven over criteria,
over: waar moet een AI-toepassing aan voldoen?
Wat mag iemand ervan verwachten?
Ik heb begrepen dat we in Nederland ik geloof 23 toezichthouders
op AI-toepassingen hebben met het Agentschap Telecom voorop,
maar ook autoriteiten als de AP, de ACM. 23 geloof ik in totaal,
dus die zullen daar wel gezamenlijk iets van moeten vinden.
Ik hoop wel dat er afstemming plaatsvindt tussen die toezichthouders,
om te voorkomen dat de ene toezichthouder
een norm anders uitlegt dan de andere toezichthouder.
ROTMAN: Gebruik je eigenlijk slimme software in je eigen werk?
VD WIJST: Ongetwijfeld. Ik heb een iPhone, dus daar zit het al in.
Wij zijn inderdaad wel aan het kijken naar het gebruik van AI
bij bijvoorbeeld het analyseren van overeenkomsten.
In het kader van due diligence moet je veel overeenkomsten analyseren
en ook daar zou je AI-software voor kunnen gebruiken.
Daar zijn we druk mee. Legal tech is ook een hot item binnen de advocatuur.
ROTMAN: En als jij nou kijkt vanuit je rol van betrokkene bij die AI-coalitie.
Als jij nou naar die wetgeving kijkt,
vergroot het dan onze onze economische kansen in Nederland
voor de AI-branche, voor de industrie?
Of denk je: dit gaat ten koste van onze innovatiekracht.
VD WIJST: Dit gaat ons zeker helpen.
Ik hoor alleen maar van zowel de datascientists,
alsook de onderzoekers op de kennisinstellingen,
dat zij veel kunnen en verwachten van AI-toepassingen,
dat ze daar veel mee verwachten te kunnen gaan bereiken.
En die zullen ontzettend geholpen worden wanneer er een goed juridisch kader is.
Dat ze ook weten: wat mag wel, wat mag niet.
Dus daar gaat die AI Act ongetwijfeld in bijdragen
en dat betekent ook dat de concurrentiekracht
van niet alleen die start-ups en scale-up die hier actief in zijn,
maar ook al die onderzoekers op die kennisinstellingen die hiermee bezig zijn,
gaat ze ontzettend helpen.
-Neem mij even mee naar die toekomst,
over 10, 20 jaar. Die toekomst waarin AI alomtegenwoordig is.
Wat voor impact heeft dat? Kun je even schetsen
hoe de dagdagelijkse praktijk in de wereld er dan uitziet?
VD WIJST: Bijvoorbeeld: we hebben tekort aan personeel in de zorg.
De kans is erg klein dat we dat personeelstekort gaan oplossen.
Dus daar zullen technische oplossingen voor moeten komen
om dat gebrek aan handjes op te vullen.
Ik hoorde gister over een toepassing waarbij met behulp van camera's
met slimme algoritmes een bewoner van een verpleeghuis kan worden gemonitord.
Die toepassing zorgt ervoor dat er minder mensen voor de toezicht nodig zijn,
maar wel, op het moment dat het echt nodig is
dat personeel gealarmeerd kan worden.
Dus daar zie je technische toepassingen, vaak met AI,
die ook bij problemen van te weinig zorgpersoneel kan gaan helpen.
ROTMAN: En ondertussen werkt de HR-afdeling van zo'n organisatie
misschien met slimme software om de roosters voor mekaar te krijgen.
Ondertussen zijn er huisartsen, medewerkers in ziekenhuizen
die misschien met AI werken
als het gaat over diagnostiek, beoordeling van foto's.
Dat komt ook op ons af.
-Ik wil er nog eentje toevoegen.
Bijvoorbeeld: we hebben een gebrek aan ruimte op het stroomnet,
maar er zijn nog plekken waar wel ruimte is.
Dat kun je ook met algoritmes zo slim gaan indelen en verdelen
dat het net optimaal gebruikt kan worden.
Dus op verschillende terreinen: onderhoud, van infrastructuur,
verschillende onderwerpen en gebieden kan dit een oplossing gaan bieden.
ROTMAN: Dan wil ik even naar de vraag van Nina Krijnen, beleidsmedewerker
van de Taskforce Cyber bij het ministerie van Buitenlandse Zaken.
'Ik heb eigenlijk twee vragen:
Welke uitdagingen gaan gepaard met de ontwikkeling van AI?
Tegelijkertijd komt er regulering vanuit Brussel op ons af.
Welke obstakels zie je voor Nederland om die te implementeren?'
Eerst die eerste: Welke uitdagingen gaan gepaard met de ontwikkelingen van AI?
Laten we even naar het ziekenhuis gaan
en de mensen die daar werken, of die zorginstellingen.
Er zijn dus op allerlei niveaus allerlei computers bezig
om inschattingen te maken, om keuzes te helpen maken,
om diagnostiek te doen, om met camera's te analyseren
of iemand wel of geen hulp nodig heeft.
Welke uitdagingen gaan gepaard met de ontwikkelingen van AI?
Dat is Nina's vraag.
VD WIJST: Ik zou zeggen 'de menselijke maat' .
Hoe houden we het menselijk?
Hoe voorkom je dat uiteindelijk 'computer says no'
de doorslag gaat geven. Ik denk dat.
Technisch zal er heel veel mogelijk gaan worden,
maar willen we alles wat technisch mogelijk is?
ROTMAN: Oké, dus dat is het.
Hoe gaan we de menselijke maat by design inbouwen?
Dat is natuurlijk een paradox in zichzelf.
Je gaat technologie gebruiken wat in zich heeft dat je de menselijke maat verliest
en dan ga je menselijke maat inbouwen in de technologie. Het blijft tech, toch?
VD WIJST: Als die technologie ondersteunend is,
dan is dat prima. Dan gaat het ons helpen,
zeker bij personeelstekorten.
Maar techniek is vaak ook veel sneller, veel slimmer dan mensen kunnen zijn.
Dus daar gaat het ons helpen.
Het wordt denk ik... Zelf zou ik het te ver vinden gaan
op het moment dat de techniek beslissingen gaat nemen over mensen
zonder dat de mens daar nog bij betrokken is.
Dat is een nachtmerriescenario. ROTMAN: Dus dat is echt...
Daar moeten we op blijven letten.
Dan het tweede deel van die vraag, de obstakels voor Nederland.
Er is een groot internationaal krachtenveld.
Er zijn verdragen, reguleringen, standaardisaties
en die vinden er allemaal wat van.
De Europese Commissie komt nu met een voorstel, met een plan.
Wat zijn nou specifiek voor Nederland uitdagingen of obstakels?
Nou, de AI Act staat niet op zich.
De AI Act is een onderdeel van een heleboel wet en regelgeving
die uit Brussel komt om meer data beschikbaar te maken,
om ons meer vertrouwen te geven in het gebruik van data.
Het obstakel zou ik zien dat er zoveel aan zit te komen
dat we het overzicht verliezen
en dat we daardoor geen grip meer houden op wat er gaat komen
en hoe we dat gaan inzetten.
Hoe gaan we het inzetten in ons voordeel?
Hoe gaan we er voordeel bij hebben?
Met name omdat er zoveel op ons afkomt.
ROTMAN: Hoe bedoel je dat? Wat is dat dan?
Kun je die brij omschrijven? Wat komt er dan allemaal op ons af?
VD WIJST: Zowel nieuwe regelgeving op het gebied van privacy
en cyberveiligheid, nieuwe regelgeving op het gebied van:
Wie mag wat met mijn data?
-Allemaal uit Europa, wat je nu noemt.
VD WIJST: Komt allemaal uit Europa en ik denk dat dat ook nodig is
om ons te wapenen en tools te geven
om te kunnen blijven concurreren met China en Amerika.
Maar er komt wel heel veel op ons af
en dat moet allemaal door al die parlementen worden goedgekeurd.
Ik ben erg benieuwd hoe dat de komende jaren gaat lopen,
want de timeline die je ziet, is erg kort.
Ik begreep dat voor de AI Act op de planning is, de bedoeling...
De hoop is dat dat in 2024 al in werking gaat treden.
Met al die andere regelgeving die er op het gebied van data aan zit te komen,
wordt dat een hele klus, denk ik. Hoe houden we iedereen daarbij betrokken?
En hoe houden we het bij?
ROTMAN: Ik heb ook een leuk gesprek gehad
met Bart Groothuis, Europarlementariër voor de VVD.
Dat gesprek ging over digitale soevereiniteit...
en dat gaat over zelfbeschikking.
Je kan op Europees niveau soeverein zijn ten opzichte van de wereld.
Je kan op nationaal niveau soeverein zijn ten opzichte van andere landen.
Je kan op individueel niveau zelfbeschikking hebben.
Verschillende niveaus van soevereiniteit.
Nu noem je een paar dingen: privacy, security, AI, de DMA...
Er is allemaal wetgeving die op ons afkomt vanuit Europa.
Hoeveel ruimte hebben wij en hoeveel ruimte hebben we misschien nodig
om ook vanuit Nederland te kunnen zeggen:
Prima. AI Act, gaan we mee akkoord, maar wij willen wel een soort...
We willen ruimte hebben om in Nederland
onze eigen normen en waarden ook gewoon in stand te houden.
Dan wordt dat niet zo Europees.
Is daar überhaupt ruimte voor of zou dat te moeten zijn?
VD WIJST: Lastige vraag,
want op het moment dat een van de doelen is
dat de Europese markt concurrerend moet worden,
kun je denk ik niet al te veel verschillen hebben.
Dat wordt het ook ontzettend lastig voor bijvoorbeeld ondernemers
om een AI-toepassing te maken op het moment dat je in verschillende landen
al met verschillende regels te maken krijgt. Dat wordt ontzettend lastig.
Dus ik denk dat we er niet aan ontkomen
dat het voor een deel ook eenheid wordt.
Er daar zullen we misschien ook soms op moeten toegeven en wat inleveren.
Maar ik denk dat we als geheel daar voordeel bij gaan hebben.
Nu zag je dat bij die GDPR, de Europese privacywetgeving
of in Nederland de AVG,
dat dat inmiddels best wel internationaal de standaard aan het worden is...
terwijl er veel kritiek was en er is nog genoeg op aan te merken volgens mij.
Ik ben geen juridische fijnslijper, maar er is altijd wat om te doen.
Maar uiteindelijk is dat best wel de norm geworden.
Denk jij dat dat met de AI Act ook zo kan zijn?
Want in Amerika en vooral ook in China
denken ze echt anders over de inzet van AI.
VD WIJST: Klopt, ik ben betrokken bij een internationale club
van technologie-advocaten, technisch juristen,
en daar hoor ik met name van Amerikanen
dat men vreest dat dat exact gaat gebeuren met de AI Act.
ROTMAN: Men vreest dat.
VD WIJST: Men vreest dat, want de AI Act staat niet op zich.
De AI Act houdt rekening met bijvoorbeeld een GDPR
en daarom vreest men dat in het buitenland, dat men zegt:
'Die andere regelgeving hebben we soms niet of hebben we vaak niet.'
En als je dan die AI Act in Brazilië, in andere landen, zou gaan kopiëren,
dan kan dat eigenlijk alleen maar als je ook de andere regelgeving
waar het een verband mee heeft, overneemt.
Dat zullen ze dan waarschijnlijk niet doen of dat...
Dat maakt dus dat het men het daar erg lastig vindt.
Plus: men heeft wel inhoudelijke kritiek op de AI Act zoals die er ligt.
ROTMAN: Dus er is een praktisch bezwaar,
maar ik ben vooral benieuwd naar het inhoudelijke bezwaar,
want wij denken anders over privacy. Wij zijn daar echt anders mee bezig.
In Amerika en vooral in China zijn daar natuurlijk hele andere ideeën over.
VD WIJST: Onder andere, in bijvoorbeeld Amerika mag veel meer
en men is bevreesd dat de beperkingen die nu in die AI Act zitten
dat die worden geïmporteerd in Amerika.
En het tweede, maar daar gaat misschien wel wat aan veranderen:
In de AI Act wordt heel weinig rekening gehouden met de burger.
Het eindigt eigenlijk bij degene die de AI-toepassing in gebruik heeft,
maar dat zegt weinig over degene die met het gebruik wordt geconfronteerd.
De consument bijvoorbeeld.
-Maar dat is toch...
Ik vind dat wel een geruststellende gedachte.
VD WIJST: Ja, maar die waarborgen voor die consument
liggen al in andere regelgeving vast, bijvoorbeeld de GDPR.
ROTMAN: Wat je vaak merkt met nieuwe technologieën
is dat we in de regelgeving vaak een beetje achter de feiten aanlopen.
Het overkomt ons een beetje, dan gaan we als een kip zonder kop aan de slag.
En dan roept iemand een keer:
'Wacht even, hier worden misschien normen en waarden geschonden.'
En dan gaan we achteraf de boel proberen te corrigeren.
Nu proef ik een beetje uit al die regelgeving die er op ons afkomt
dat we misschien aan de voorkant dingen proberen te regelen. Hoe zie jij dit?
VD WIJST: Ik denk dat regelgeving per definitie achter feiten aanloopt.
Dat is ook hier denk ik het geval.
Wat ik hier wel goed vind, is dat er een breed groter plan achter zit
en dat is waarom er op het gebied van data ook al die regelgeving aankomt.
Het is een breder, groot opgezet plan en dat vind ik goed. De samenhang is er.
ROTMAN: Er zitten veel ambtenaren te luisteren
en die hebben misschien wel een idee:
'Ik wil hier een project starten of een proces inrichten
en we willen daar kunstmatige intelligentie bij gaan gebruiken.'
Wat zijn nou... Nu komt die AI Act op ons af.
Daar moeten we wat mee, daar moeten we aan voldoen.
Wat zijn dan jouw tips voor mensen die hier nu mee aan de slag gaan
om die menselijke maat in dat design te krijgen?
Hoe pak je zoiets van?
VD WIJST: Nou denk ik, eigenlijk wat je net al zegt: in design.
Niet er pas naar gaan kijken
op het moment dat er een AI-toepassing bijna in gebruik is,
maar helemaal aan de voorkant al by design zorgen
dat aan die vereisten wordt voldaan
en dat er by design al aandacht is voor aspecten als ethiek,
robuustheid van algoritmes.
Dus by design aan de voorkant er al rekening mee houden.
ROTMAN: Dat snap ik, aan de voorkant, maar hoe doe je dat?
Is dat een kwestie van in elke vergadering aan het begin elke keer:
'Oké jongens, is die menselijke maat nu by design erin gebracht?'
Hoe doe je dit? Hoe richt je je proces in dat het er dan ook in komt?
VD WIJST: Dat zou bijvoorbeeld kunnen
met een AI-test- en experimenteerfaciliteit.
De TEF's, die zijn in ontwikkeling.
Een andere mogelijkheid zou kunnen zijn, werken met een AI regulatory sandbox.
Een heel mooi instrument wat is geïntroduceerd in deze AI Act,
wat nog wel vorm moet krijgen,
maar dat zijn allemaal omgevingen om in een vroegtijdig stadium te testen
of een AI-toepassing aan wet- en regelgeving voldoet,
waar je tegenaan loopt wanneer je in the real world
met een AI-toepassing aan de slag zou gaan.
Dus in een heel vroegtijdig stadium daar al naar kijken,
met name omdat de gevolgen
voor verkeerde AI-toepassingen heel groot kunnen zijn.
ROTMAN: Zijn jullie bij BG.legal al bezig om een AI te ontwikkelen
die andere AI's kan controleren op compliance
en dat je dan met dat programma op bezoek gaat bij jouw klanten
om te overleggen van: hé, jullie je doen het wel of niet goed.
VD WIJST: Dank voor het idee.
Wij hebben al een aantal datascientists in dienst.
Dus niet alleen juristen, maar ook mensen met een andere achtergrond.
Wij ontwikkelen wel impact assessments.
We willen een AI-compliance check gaan ontwikkelen.
Allemaal omdat we zowel van AI-ontwikkelaars,
maar ook van opdrachtgevers horen:
'Kan ik ergens een certificaat krijgen of een verklaring
dat een AI-toepassing aan wet- en regelgeving voldoet?'
ISO-normen zullen er gaan komen, voor AI-toepassingen.
Dus naast de AI Act met wet- en regelgeving
zullen er ongetwijfeld ook in zekere zin certificeringsnormen komen.
Allemaal bedoeld om vertrouwen te geven, te wekken voor een AI-toepassing.
ROTMAN: Wordt jouw werk er leuker van?
VD WIJST: Jazeker.
Ik vind het ontzettend leuk om... Ik ben van nature ontzettend nieuwsgierig
en dus nieuwe technologie en wat dat voor effect heeft op juridische afspraken,
hoe je juridisch moet omgaan met nieuwe technologieën,
vind ik ontzettend interessant.
-Je begint te shinen.
Dank je wel, Jos van der Wijst. Partner bij BG.Legal.
Dank ook Loulou Hanna, Nina Krijnen en Ron Roozendaal voor jullie vragen.
Wil je meer weten? Ga naar it-academieoverheid.nl
of je favoriete podcastapp.
Daar komen ook Loulou, Nina en Ron weer tevoorschijn,
dus ik ben benieuwd waar ze mee komen. Dank je wel.
VD WIJST: Graag gedaan.