Webinar: AI, kans of bedreiging? met Sennay Ghebreab
In deze RADIO webinar gaat Sennay Ghebreab, Neuroinformaticus UvA, in op deze en andere bedreigingen die AI-systemen vormen voor burgers en maatschappij en kansen die AI-systemen bieden om systemische sociale vooringenomenheid, ongelijkheid en uitsluiting bloot te leggen en aan te pakken. Hij betoogt dat AI-systemen publieke waarden als veiligheid en gelijkheid kunnen versterken mits ze worden ontwikkeld en toegepast op een eerlijke, transparante en inclusieve manier.
Welkom. Welkom allemaal bij dit webinar artificiële intelligentie.
Over de kansen en bedreigingen van AI.
Hierover is al veel gezegd en veel geschreven door anderen.
Ik zal vandaag ingaan op de kansen en bedreigingen van AI
vanuit een sociaal oogpunt.
Vanuit het oogpunt van een pluriforme samenleving in Nederland is.
De kern van mijn verhaal is dat de grootste bedreiging is
Dat we de kansen die AI ons biedt niet zien, niet waarderen
en daarom dus ook niet pakken.
Mijn naam is Sennay Ghebreab.
Ik ben universitair hoofddocent aan de Universiteit van Amsterdam
waar ik onderzoek doe naar sociaal intelligente AI.
Waar ik ook opleidingsdirecteur ben van de master's Information Studies
Dat is een combinatie van aan de ene kant data sciences
en aan de andere kant information systems.
Daarnaast ben ik wetenschappelijk directeur van het Civic AI Lab.
Een lab in oprichting bij het Nationaal Innovatie Centrum voor AI. Het ICAI.
Wat een samenwerking is
tussen de Universiteit van Amsterdam en de gemeente Amsterdam.
Hierover zal ik zo meteen wat meer vertellen.
Iets over mijzelf. Het jongetje rechts in beeld, dat ben ik.
Op straat ergens in Schiedam.
Nog geen 10 jaar oud, maar toch al veel meegemaakt op die leeftijd.
Ik ben geboren in Ethiopië, in 1973,
tijdens de burgeroorlog tussen Ethiopië en Eritrea.
Twee jaar later ben ik verhuisd naar Eritrea, met mijn ouders en mijn zus.
Mijn ouders komen uit Eritrea.
In 1979 ben ik samen met mijn zussen en ouders naar Nederland gevlucht.
Voor oorlog.
Op de foto hier rechts ziet u mij in mijn favoriete houding,
te doen wat ik het liefst deed en nog steeds doe.
Namelijk grenzeloos denken aan een betere wereld.
Eigenlijk zoals heel veel kinderen dat doen op die leeftijd.
Dat grenzeloos denken is bij mij nooit echt weggegaan.
Sterker nog, het is meer aanwezig dan ooit,
nu technologische ontwikkelingen zoals AI ongekende mogelijkheden bieden.
Wat ik vandaag wil doen, is u meenemen in dat denken.
In het verhaal dat de AI-kansen biedt
om het samenleven in een digitale en diverse samenleving te verbeteren.
Het verhaal bestaat uit zeven hoofdstukken.
Technologische welvaart, sociale diversiteit,
sociotechnische ongelijkheid, een toekomstverkenning,
AI-gedreven kansengelijkheid, en als laatste nog het Civic AI Lab.
Mochten er verhelderende vragen zijn tijdens mijn presentatie,
stel die dan vooral. Ik krijg de vragen op mijn scherm binnen.
Aan het eind van elk hoofdstuk
probeer ik één of twee verhelderende vragen te beantwoorden.
Is dat oké?
Ik zie heel veel in mijn beeld, mijn verbeeltenis, mensen ja knikken,
Dus ik ga door naar hoofdstuk één. Dat is de technologische welvaart.
We leven in een tijd van ongekende technologische mogelijkheden.
Op dit moment hebben circa 4,3 miljard mensen wereldwijd toegang tot internet.
Dat is meer dan de helft van de wereldbevolking.
Al deze mensen hebben in meer of mindere mate toegang
tot de enorme hoeveelheid informatie die beschikbaar is op internet.
Een nog groter deel van de wereldbevolking,
circa 5,1 miljard mensen, maakt gebruik van mobiele telefoons.
Hiermee hebben al deze mensen continu verbinding met elkaar,
of dat nou lokaal is of globaal,
en delen ze op grote schaal informatie uit met elkaar.
Samen uploaden we iedere dag zo ongeveer drie quintiljoen bytes aan data.
Tekst, plaatjes, muziek, video, et cetera.
Drie quintiljoen bytes aan data.
Zoals de meesten van jullie wel weten, vermoed ik,
is een quintiljoen 10 tot de macht 30. Zoveel data.
Verreweg het grootste deel van de data nu op het internet
is pas de afgelopen jaren geüpload.
Naast de digitale data die individuen zoals ik en jullie zelf genereren,
is er natuurlijk ook nog de immense hoeveelheid digitale data
die dagelijks geproduceerd wordt
door overheid, bedrijven, wetenschap et cetera.
We hebben kortom te maken met een enorme explosie aan digitale data.
Maar ook rekenkracht van computers en machines groeit razendsnel.
Deze groei is exponentieel en volgt Moore's wet.
Dat is dat de rekenkracht iedere twee jaar verdubbelt voor dezelfde prijs.
Tenslotte is er de opkomst van machine learning.
Machine learning omvat algoritmes die gebruikt worden om autonoom,
dus zonder begeleiding, zonder menselijke begeleiding,
te leren van inputdata.
Slimme algoritmes die niet voor- geprogrammeerde beslissingen nemen,
maar zelfstandig hun beslissingen bepalen, veranderen en verbeteren.
Een voorbeeld van een succesvol en veelgebruikt machine learning-algoritme
is deep learning. Deep learning is een techniek die in essentie is gebaseerd
op hoe het menselijk brein werkt.
De razendsnelle groei van data, rekenkracht en slimme algoritmes
heeft de opkomst van de AI in een stroomversnelling gebracht.
Met AI bedoel ik en de technologie en het vakgebied
dat zich bezighoudt met het leren van vaardigheden aan machines
waarvoor normaal gesproken menselijke intelligentie is vereist.
Zoals waarnemen, leren, redeneren, anticiperen, interacteren, et cetera.
AI is alom aanwezig.
In de publieke sector gebruiken de overheidsdiensten AI
om allerlei voorspellingen te doen en beslissingen te ondersteunen.
Bijvoorbeeld bij het opsporen van criminaliteit
of bij het bestrijden van klimaatverandering.
In de private sector zetten bedrijven massaal in op AI,
omdat onder de invloed daarvan de verwachting is
dat de economie zal gaan verdubbelen.
Zelfs de long profit sector omarmt AI gestaag.
Toch leeft de vraag onder veel wetenschappers, ondernemers,
politici, mensenrechtenactivisten en noem maar op
of AI wel zal leiden tot een betere samenleving.
Dit brengt mij bij hoofdstuk twee van dit seminar.
AI en de toekomst van de mensheid.
Voordat ik verderga, wil ik eerst even checken of er vragen zijn.
Verhelderende vragen.
Ik zie geen vragen binnenkomen, dus ga ik verder met het volgende hoofdstuk.
Eind 2018 heeft het Amerikaanse onderzoeksinstituut Pew Research
in samenwerking met Elon University,
een onderzoek uitgevoerd onder bijna 1000 AI-kenners naar hun visie op AI.
De centrale vraag die deze kenners hebben gekregen, was:
helpt AI de meeste mensen beter af te zijn in 2030 in vergelijking met 2018?
Voordat ik verderga en het resultaat met jullie deel,
Wil ik jullie mening horen, jullie visie. Wat denken jullie?
Helpt AI de meeste mensen beter af te zijn in 2030 in vergelijking met 2018?
Ja of nee?
Ik zal de poll gaan starten.
Oké, ik zie...
128 respondenten.
Ik wacht nog heel even, ik geef nog even de gelegenheid om antwoord te geven.
Oké, ik zal de poll nu even stoppen.
En het resultaat met jullie delen.
Het resultaat, zoals jullie waarschijnlijk zien nu,
is dat 86% van jullie vindt dat AI een positief effect zal hebben
in 2030 in vergelijking met 2018.
Dat komt overeen met het resultaat van Pew Study.
Want in die studie heeft 63% van de respondenten
geantwoord dat ze denken dat de AI een positief effect zou hebben.
37% denkt van niet.
Als het gaat om de kansen die AI biedt,
wijzen de respondenten vooral op de kansen van AI
voor een efficiënter leven, efficiënter werken.
Maar ook voor betere dienstverlening in de gezondheidszorg
en voor nieuwe mogelijkheden voor onderwijs op maat.
De bedreigingen die de respondenten benoemen, zijn fundamenteler van aard:
verlies van menselijke autonomie, macht in handen van grote bedrijven,
zoals Facebook, Amazon, Google, en destructie van het sociale leven,
van de bestaande sociale structuren.
Op de vraag welke remedies de respondenten zien voor de bedreigingen,
zijn de meest gegeven antwoorden het verbeteren van menselijke interactie,
en samenwerking tussen mensen, groepen van mensen,
het verankeren van gedeelde waarden in AI,
en het vooropstellen van mensen en hun talenten
bij de ontwikkeling en toepassing van AI.
Ik kan me erg vinden in deze remedies.
Ik vind ze essentieel en zelfs existentieel voor AI.
De vraag is: maken we hier voldoende werk van?
Hebben wij of bouwen wij AI
die de verscheidenheid aan mensen en menselijke waarden omarmt?
In het volgende hoofdstuk, sociale diversiteit, ga ik hier verder op in.
Eerst nog even checken of er vragen zijn.
Ik zal jullie nog iets meer de tijd geven om antwoorden te geven.
Of vragen te stellen, beter gezegd.
Een vraag die binnenkomt, is:
wat is uw mening over AI in relatie tot ethiek?
Dat is iets waar ik zo meteen verder op inga. Daar kom ik later op terug,
dus die vragen hoop ik straks beantwoord te hebben.
Ofwel in mijn presentatie ofwel in de discussie daarna.
Een andere vraag: is privacy niet ook een van de problemen?
Ja, dat is het ook.
Maar ook op deze vraag probeer ik straks terug te komen,
Omdat ik zelf denk dat er ontzettend veel focus is gelegd in de afgelopen jaren
waar het gaat om AI en data, op privacy.
En veel minder op gelijkheid, het gelijkheidsprincipe.
Ik ga verder met mijn volgende hoofdstuk.
Sociale diversiteit en AI.
Zoals de meeste andere landen met een hoog ontwikkelde economie
is Nederland een immigratieland.
Momenteel heeft ongeveer 23% van de Nederlandse bevolking
een migratie-achtergrond. 23%.
Dat zijn meer dan 4 miljoen Nederlanders,
waarvan een van de ouders migrant is.
Voorheen kwamen de migranten in Nederland uit een beperkt aantal landen,
zoals je hier op beeld kunt zien:
uit Marokko, Indonesië, Turkije, et cetera.
Nu hebben mensen uit bijna 200 verschillende landen van herkomst
een bestaan opgebouwd in Nederland. Bijna 200.
Sommigen zijn gekomen om te werken, anderen om te studeren.
En weer anderen zijn hierheen gekomen op de vlucht voor geweld of oorlog,
zoals mijn ouders en ik.
Vooral in de grote steden als Amsterdam, Rotterdam en Den Haag
is er sprake van superdiversiteit.
Dit houdt in dat een minderheid in de stad de meerderheid vormt.
Volgens allerlei prognoses zal die trend zich voortzetten in de toekomst.
In de nabije toekomst, maar ook in de verre toekomst.
In Amsterdam heeft ongeveer 53% van de bevolking, de inwoners,
een migratie-achtergrond.
In 2030 zal dat doorgroeien tot 58%.
In Den Haag heeft nu 54% van de inwoners een migratie-achtergrond.
In 2030 zal dat gegroeid zijn naar ongeveer 60%.
Al deze migranten vormen een pluriforme samenleving
met deels overlappende gemeenschappen.
Een samenleving waarin migranten,
ondanks dat het hen niet altijd even makkelijk wordt gemaakt,
denk hierbij aan discriminatie op de arbeidsmarkt,
toch steeds beter lukt om te participeren,
deel te nemen, bij te dragen in de samenleving.
Wat achterblijft, is participatie en representatie
van migranten in de digitale samenleving.
Met name in de ontwikkeling, toepassing en monitoring van AI.
Er is weinig diversiteit in AI.
Een vraag die ik zelf vaak gesteld krijg, is:
is representatie en diversiteit bij AI zo nodig?
We kunnen toch ook AI voor iedereen ontwikkelen
zonder per se als team divers te zijn of als toezichthouders divers te zijn?
Wij houden ons immers
aan wetten, ethische richtlijnen, regels, toezichtkaders et cetera
die de rechten van iedereen waarborgen.
Mijn antwoord daarop is: ja, dat is mogelijk.
En toch blijft er sprake van sociale ongelijkheid.
In, maar ook door AI.
Het onderwerp van het volgende hoofdstuk: socio-technische inequality.
Ik geef hier nog heel even de kans en de tijd om vragen te stellen.
Ik krijg de vraag: ligt het niet in de menselijke hand waar AI naartoe gaat?
Helemaal mee eens,
en dat is ook de onderliggende boodschap van deze presentatie.
Zou het niet mogelijk kunnen zijn, andere vraag,
dat de negatieve kanten van de AI in de toekomst begrensd kunnen worden?
Ja, dat denk ik wel. Als we er ook echt werk van maken.
En als we ook echt zien, daar begint het mee,
of we de negatieve kanten in beeld hebben.
Of we ze zien. Pas als we dat in beeld hebben, kunnen we daar wat aan doen.
De vraag is nogmaals: is dat wel zo?
Is het zo dat we het in beeld hebben?
Ik ga verder met het volgende hoofdstuk.
Het Amerikaanse onderzoeksinstituut AI Now in New York
doet onderzoek naar de ontwikkeling van AI en de sociale implicaties ervan.
Het instituut AI Now bestudeert ook de diversiteit aan mensen
die bijdragen aan de ontwikkeling van AI wereldwijd.
Dit rapport hier op het scherm beschrijft dat.
Volgens AI Now, dit zijn een aantal van de bevindingen die in het rapport staan,
is wereldwijd 80% van de universiteitsprofessoren in AI man.
Bij Facebook is 85% van de AI-experts man.
En bij Google is dat meer, 90%.
Met de etnische diversiteit is het nog slechter gesteld.
Zo is bijvoorbeeld slechts 2,5% van de werknemers van Google zwart,
terwijl Facebook en Microsoft elk maar 4% zwarte AI-experts in dienst hebben.
4%.
Als je geografisch kijkt naar waar de wetenschappelijke AI-expertise zit,
zie je dat de VS, China, het Verenigd Koninkrijk, Duitsland en Canada
zamen verantwoordelijk zijn voor ongeveer 72% van die expertise.
Dat is enorm.
Er is dus een enorme mismatch in mijn ogen
in termen van demografische eigenschappen en afkomst
bij aan de ene kant makers van AI en aan de andere kant de gebruikers ervan.
De gebruikers of de afnemers ervan.
Dit zou minder erg zijn als er echte transparantie is
in hoe AI ontwikkeld wordt, hoe het toegepast wordt,
hoe het gemonitord wordt op sociale implicaties en andersoortige implicaties.
Maar die transparantie ontbreekt vaak nog.
Er is ook een gebrek aan verantwoording.
Met name sociale verantwoording.
Er is onvoldoende AI-verantwoording
door politici, beleidsmakers, dienstverleners aan burgers
waar het gaat om AI en sociale implicaties.
Het ontbreken van diversiteit, transparantie, verantwoording in de AI,
in combinatie met het feit
dat heel veel data wat nu gevoed wordt aan intelligente systemen...
Heel veel data bevat historische vooringenomenheid
en is vaak ook niet representatief
voor de bevolkingsgroepen en gemeenschappen
die hier in Nederland leven en elders leven.
Dit is een recept, in mijn ogen, voor socio-technische ongelijkheid.
AI-systemen kunnen bedoeld of vaker onbedoeld
bestaande mechanismen voor ongelijkheid, uitsluiting en discriminatie
versterken of zelfs nieuwe vormen hiervan introduceren.
De duidelijkste manifestaties hiervan zijn te vinden bij de overheid zelf.
Zo gebruikt de overheid al op grote schaal
en op veel niveaus in de organisatie voorspellende algoritmen
die vaak een verhoogd risico hebben op discriminatie.
Zoals dat vorig jaar ook bleek uit de inventarisatie van de NOS
onder 54 overheidsinstanties.
Denk aan het computersysteem SyRI, wat allerlei gegevens over de burgers,
afkomstig van het UWV, belastingdienst, de sociale verzekeringsbank,
aan elkaar koppelt voor fraude-onderzoek.
De rechtbank oordeelt dat de SyRI-wetgeving
in strijd is met het Europees Verdrag voor de Rechten van de Mens.
Eén, omdat het een onevenredig grote inbreuk maakt
op het privéleven van burgers, dus de privacy van burgers.
En twee, het vormt een reëel risico op discriminatie en stigmatisering
van burgers op grond van sociaaleconomische factoren
of op grond van hun migratie- achtergrond.
Een ander voorbeeld is de toeslagenaffaire bij de belastingdienst.
Recent heel erg aanwezig geweest
in de media, de publieke arena.
Een voorbeeld waarbij duizenden ouders met migratieachtergrond
onterecht benadeeld blijken te zijn.
Etnisch profileren, constateert de nationale ombudsman.
In een recent interview zegt hij:
'Het zit in het systeem, dus het etnisch profileren,
het zit in systemen die in een computercentrum gegevens uitspugen.
Het gaat via algoritmen.
Wat mij interesseert is wat mensen daar vervolgens mee doen.' Einde quote.
Hadden deze voorbeelden voorkomen kunnen worden?
Ik denk het wel. Hadden de voorbeelden voorkomen kunnen worden
als AI-systemen waren ontwikkeld, getoetst, gemonitord
door wetenschappers, beleidsmakers, juristen, et cetera,
met een diverse en interdisciplinaire achtergrond?
Ik denk het wel.
Maar fouten worden altijd gemaakt.
De vraag is: leren we van deze fouten? Leren we van deze fouten?
In het volgende hoofdstuk ga ik in op wat er mogelijk gebeurt
als we niet leren van gemaakte fouten,
als we AI niet op een transparante en inclusieve manier ontwikkelen.
Hoofdstuk 5, een toekomstverkenning.
Maar eerst weer even de gelegenheid aan jullie om vragen te stellen.
Ik zie hier een aantal vragen.
Hoe kan je idealiter toezicht houden op AI vanuit een overheidsperspectief?
Daar refereerde ik net eigenlijk al een beetje naar.
Toezicht houden, monitoren, et cetera, allemaal belangrijk, verantwoording,
maar dat moet zoveel mogelijk, en daar zal ik straks ook op terugkomen,
gebeuren in een interdisciplinaire context,
met mensen vanuit allerlei achtergronden.
Ik denk dat dat essentieel is.
Een andere vraag: waarom ligt de nadruk vooral op etniciteit?
Het aandeel AI experts in de leeftijdgroep 20-30 jaar
zal ook oververtegenwoordigd zijn.
Dat klopt, ik focus hier op etniciteit.
Ik had net zo goed kunnen focussen op genderaspecten.
Ik had net zo goed kunnen focussen op leeftijd.
De boodschap, de onderliggende boodschap is:
het moet representatief zijn voor iedereen.
Ik focus hier nu met name op etniciteit,
omdat ik dat ook nog te vaak niet zie terugkomen
in de ontwikkelingen, de discussies, de debatten over AI.
Dank voor jullie vragen. Ik ga weer verder met het volgende deel,
hoofdstuk 5, de toekomstverkenning.
In 2018 heeft Futureconsult drie toekomstscenario's opgesteld
in opdracht van het ministerie van Sociale Zaken.
Ik heb hier zelf ook aan mogen bijdragen.
Die scenario's laten zien hoe Nederland, de Nederlandse samenleving,
eruit kan zien in 2030, weer 2030,
als het gaat om diversiteit als gevolg van migratie.
De scenario's zijn bewust beleidsarm.
Ze laten zien wat de impact is
van autonome ontwikkelingen zonder overheidsingrijpen.
Het eerste scenario is een gespleten samenleving.
Een samenleving met economische stagnatie en bevolkingskrimp.
Door vergrijzing krimpt het arbeidspotentieel
en mensen zoeken kansen buiten Nederland en ook buiten Europa.
De kloof tussen kansarm en kansrijk is in dit scenario onoverbrugbaar.
Het tweede scenario is een versplinterde samenleving.
Een samenleving met economische stagnatie
en bevolkingsgroei door oorlog en klimaatvluchtelingen.
De arbeidsmarkt is gesegregeerd
en de werkvloer is niet meer een plek waar je de ander ontmoet.
Scheidslijnen in deze samenleving zijn vooral etnisch en religieus.
Dus culturele scheidslijnen vooral.
In het derde scenario, een anonieme samenleving,
bloeit Nederland economisch
en is het een aantrekkelijk vestigingsland voor migranten.
Nederland kijkt pragmatisch naar migratie.
Iedereen die wil en kan werken, is welkom.
Daarom is er veel tijdelijke migratie van en naar Nederland.
Wel leven mensen in dit scenario langs elkaar heen en niet zozeer met elkaar.
In alle drie de scenario's is er sprake van ongelijkheid
op economisch, politiek, sociaal of cultureel vlak.
Ongelijkheid die in meer of mindere mate zichtbaar is in onze huidige samenleving.
Tijd weer voor een volgende peiling.
Wat voor samenleving verwachten jullie in 2030?
Een gespleten samenleving, een versplinterde samenleving,
een anonieme samenleving, of misschien wel iets anders?
Graag jullie antwoord.
Ik geef jullie nog heel eventjes tijd.
Dank voor het geven van de antwoorden. Ik stop de poll.
Ik zal deze even met jullie delen.
Als het goed is, zien jullie hier de antwoorden.
17% denkt aan een gespleten samenleving.
33% denkt aan een versplinterde samenleving.
35% een anonieme samenleving.
En 14% denkt aan een ander scenario voor Nederland in 2030.
Ik ben benieuwd wat de andere scenario's zijn.
Misschien kunnen jullie daar online ook jullie beeld over geven.
Ik ga verder met de slides.
Bij het opstellen van de drie scenario's
is weinig rekening gehouden met de kansen die AI biedt.
Wordt dat gedaan, dan is een alternatief vierde scenario in mijn ogen mogelijk.
Een scenario dat ik de onderhoudende samenleving noemt.
Een samenleving waarin mensen uit alle hoeken van de maatschappij
en met alle achtergronden
de kans hebben om zich economisch, sociaal, politiek, cultureel in te zetten
om sterkere gemeenschappen te vormen
en een bloeiende samenleving te creëren.
Een onderhoudende samenleving, een vierde scenario.
Kan AI helpen om zo'n samenleving te realiseren?
Ik denk het wel.
Mits AI wordt ontwikkeld en ingezet
om gelijke kansen in de samenleving te bevorderen.
Hier gaat hoofdstuk 6 over, AI-powered equality,
of AI-gedreven equality, gelijkheid.
Ik neem weer even kort de tijd voor vragen van jullie.
Als er vragen zijn over dit hoofdstuk, kunt u ze nu even stellen.
Oké, ik pak even...
Een vraag hier is: wordt er nu überhaupt toezicht gehouden op inzet van AI?
Op sommige plekken wel, op veel plekken ook weer niet.
De aandacht voor AI en vooral voor de implicaties van AI,
ook in het sociaal domein, groeit enorm.
Maar is er toezicht, voldoende toezicht?
Er is toezicht, maar in mijn ogen niet voldoende toezicht.
Geldt bij AI ook wat 'rubbish in, rubbish out' betekent?
En betekent dat dat het eigenaarschap dat AI basis geeft
essentieel is voor het toekomstige succes van AI?
Jazeker, daar kom ik weer zo meteen op terug.
Dat datarepresentatie enorm belangrijk is.
Ik ga weer even verder met de slides.
Het volgende hoofdstuk, AI-powered equality.
AI kan helpen.
AI kan helpen om bestaande ongelijkheid in de samenleving bloot te leggen.
Het heeft de potentie om te fungeren als een maatschappelijke spiegel,
als een vergrootglas waarmee je mechanismen
van ongelijkheid, uitsluiting en discriminatie,
ook de subtiele mechanismen kunt blootleggen.
Maar het kan meer zijn dan alleen een spiegel of vergrootglas.
Het kan namelijk ook een soort vehikel zijn voor nieuwe creatieve vormen
van gelijke kansen. Ik geef twee voor mij inspirerende voorbeelden.
Het eerste is de MIT inequality atlas.
Dit is een interactieve atlas gemaakt op basis van geolocatiedata
van 4,5 miljoen mobieletelefoongebruikers
in de Amerikaanse stad Boston.
De atlas geeft aan waar personen
uit verschillende sociaaleconomische leefgebieden elkaar ontmoeten.
Waar ze zich al dan niet door de stad verplaatsen om te werken, eten,
winkelen, naar musea gaan, bioscopen gaan, theaters, et cetera.
De inequality atlas onthult
hoe mensen uit de lagere sociaaleconomische klassen beperkt zijn
en beperkt worden in hun mobiliteit door de stad, door Boston in dit geval.
Dit inzicht is een eerste cruciale stap
naar 't oplossen van mobiliteitsarmoede in grootstedelijke gebieden.
Dat is een ontzettend mooi voorbeeld, vind ik.
Een ander voorbeeld is het algoritme van Stanford.
Een algoritme dat Stanford
in samenwerking met de Zwitserse overheid heeft ontwikkeld
voor relocatie, hervestiging van vluchtelingen.
Dat algoritme leert op basis van historische data van vluchtelingen
waar een vluchteling het best geplaatst kan worden.
Hierbij wordt onder andere gekeken naar waar een vluchteling vandaan komt,
wat zijn of haar talenten zijn,
en op welke plaats in het land dat talent hard nodig is.
Deze manier van herplaatsing van een vluchteling
blijkt een win-winsituatie op te leveren, blijkt uit deze studie.
Zowel de vluchteling als de plaats van hervestiging profiteren van elkaar.
Dit zijn voor mij twee inspirerende voorbeelden
van AI-powered of AI-gedreven equality.
Voorbeelden die het resultaat zijn van samenwerking tussen wetenschappers,
beleidsmakers, mensenrechtenadvocaten et cetera,
met verschillende ervaringen, maar ook achtergronden en afkomsten.
Ze laten zien hoe interdisciplinariteit en diversiteit samen kunnen leiden
tot wat ik zou willen beschrijven
als 'equality by design', 'ethics by design'.
Hoe kunnen we meer van deze voorbeelden realiseren?
Hoe kunnen we AI voor social good op een duurzame manier cocreëren?
Dat is wat mij brengt, deze vraag,
bij het zevende en laatste hoofdstuk van dit webinar.
Het Civic AI Lab.
Maar nog even de tijd aan jullie weer om voordat ik verder ga, vragen te stellen.
Een vraagje: hoe kan AI voor meer gelijkheid zorgen
wanneer we weten dat de data over het algemeen veel bias bevat?
AI kan ons helpen om te laten zien waar de gaten zitten in de data.
Ik heb hiervoor al enkele voorbeelden genoemd.
Er zijn andere voorbeelden, bijvoorbeeld in de medische sector
waarin de toepassing van AI ongelijkheid blootlegt
en ervoor zorgt dat mensen op een andere manier met de data omgaan,
op een andere manier data collecteren.
Ik hoop dat dit duidelijk is.
Er komen nu een aantal vragen binnen.
Vluchtelingen plaatsen op etnische achtergronden,
in hoeverre levert dat geen onaanvaardbare bias op?
Dit vind ik een interessante vraag.
Een kort antwoord hierop is: het ligt er helemaal aan met welke perspectieven
Met welke bril je kijkt naar wie iemand is, wat zijn identiteit is, et cetera.
Als je iemands achtergrond, etniciteit, seksualiteit, et cetera,
gebruikt om mensen te verdenken van iets, te vervolgen,
dan is dat zeker niet wenselijk en dat moeten we voorkomen.
Het punt is dat als je naar AI kijkt of naar de mens kijkt vanuit zijn talenten,
wat hij kan, waarom zou dat dan geen reden zijn om te kijken
wie iemand is en wat hij kan en wat je daar vervolgens mee kan?
Het perspectief waarmee je naar data, de mens en de samenleving kijkt,
bepaalt in grote mate welke positieve dingen je ermee kunt doen.
Oké, ik ga weer verder met mijn laatste hoofdstuk, Civic AI Lab.
Het Civic AI Lab is een lab in oprichting
bij het Nationaal Innovatie Centrum voor AI, het ICAI.
Het ICAI is een soort ecosysteem van labs
waar kennisinstellingen samenwerken met publieke of private partners
op het gebied van AI.
De partners financieren of cofinancieren het lab.
Ze zijn ook de product- of probleemeigenaren.
Het aantal labs bij ICAI met industriële partners, sorry,
Een aantal gegevens over het ICAI als ecosysteem.
Het heeft op dit moment 12 labs met minstens vijf AIO's
verdeeld over vijf steden waar meer dan 100 wetenschappers samenwerken
aan het oplossen van problemen. Voornamelijk industriële problemen.
Het plan, het idee, is als ecosysteem, als ICAI, te groeien
naar 20 labs aan het eind van dit jaar.
Dit zijn enkele ICAI-labs.
QUVA-lab bijvoorbeeld, dat is een samenwerking
tussen de Universiteit van Amsterdam en Qualcomm
op het gebied van computer vision.
Een ander lab is AI for Fintech, waarbij ING betrokken is als partner.
Dit is een deel van de labs.
Ik zie dat hier het Nationaal Politielab niet op staat.
Ook dat is een ICAI-lab waarbij de nationale politie een partner is.
Het aantal labs groeit nu vrij snel.
Maar het aantal labs bij ICAI, dat vrij snel groeit,
zijn vooral labs met industriële partners.
Die labs nemen ontzettend snel toe.
Dit geldt niet voor labs met een maatschappelijke partner,
met een maatschappelijke intentie, terwijl dat juist hard nodig is
om maatschappelijke kansen die AI biedt te pakken, te gebruiken, uit te werken.
Daarom zijn wij bezig met de oprichting van het Civic AI Lab.
Dat lab is een samenwerking
tussen de Universiteit van Amsterdam en de gemeente Amsterdam.
Ik ga iets meer in op wat het lab doet.
Het lab heeft als visie een digitale samenleving
waarin burgers uit alle hoeken van de samenleving eigenaarschap hebben
en bijdragen aan een innovatieve en innovatieve samenleving.
De missie is het ontwikkelen van AI-technologieën
om burgers en gemeenschappen, ook die in de marge van de samenleving,
te verbinden, te versterken en te betrekken bij de samenleving.
Er zijn grofweg twee onderzoekslijnen.
De eerste onderzoekslijn is de ontwikkeling van AI-technologie
die de economische en sociale mensenrechten bevordert,
zoals het recht op gezondheid, onderwijs en werk,
met inachtneming van fundamentele mensenrechten,
zoals non-discriminatie en gelijkheid.
De tweede onderzoekslijn richt zich op de ontwikkeling van AI-technologie
die rekening houdt met de sociaal- culturele waarden van burgers
met respect nogmaals voor verschillen tussen de burgers,
in termen van factoren zoals taal, gewoontes, levensstijl et cetera.
Het Civic AI Lab kent drie oplossingsrichtingen.
Eén, het gebruik van data die burgers in de samenleving en gemeenschappen
beter, maar vooral ook dieper vertegenwoordigen, representeren.
Twee, de ontwikkeling van eerlijkheidsmaten
die niet alleen maar een mathematische basis hebben,
zoals dat nu voor het grootste deel wel het geval is,
maar ook een sociale basis, een sociaalhistorische basis hebben.
En drie, de ontwikkeling van custom-fit algoritmen
die mensen centraal stellen, en niet de technologie zelf.
Het lab richt zich op vijf projecten van vier jaar
verdeeld over drie interdisciplinaire AI-uitdagingen,
zoals beschreven in het Dutch AI manifesto.
Het Dutch aritificial intelligence manifesto.
Namelijk responsible AI, explainable AI en socially aware AI.
Door responsible, explainable en socially aware AI in een lab te ontwikkelen,
Verwachten we sociaal intelligente AI- technologieën te kunnen cocreëren.
Bij elk project is een interdisciplinair team van wetenschappers,
dus niet alleen AI-experts,
maar ook experts in privacy om de juridische kanten te dekken.
Verschillende wetenschappers worden dus betrokken.
Er wordt onderzoek en technologieont- wikkeling gedaan met use cases en data
in dit geval verstrekt door de gemeente Amsterdam.
De vijf projecten waar we ons op richten
zijn de domeinen onderwijs, omgeving, mobiliteit, gezondheid en welzijn.
Alle vijf projecten hebben als doel overzicht en inzicht creëren
in de kansenongelijkheid in de digitale stad
en handelingsperspectieven om kansengelijkheid juist te vergroten.
Dit brengt mij bij mijn laatste slide.
Mocht u geïnteresseerd zijn in ICAI
of zelfs maatschappelijk partner willen worden bij het Civic AI Lab,
neem dan contact op met ons.
Hartelijk dank voor de aandacht en dit is een slide waarop jullie kunnen klikken
om in contact te komen met ICAI en andere informatie te krijgen,
waaronder van RADIO. Dank jullie wel.