RADIO Webinar: Ontdek Neurotechnologie deel 1 over Brein-Computer Interface
In dit webinar wordt toegelicht wat Neurotechnologie is. Professor Pim Haselager vertelt in dit deel over de Brein naar Computer Interface, waarmee het mogelijk is om steeds meer van de signalen uit het brein te kunnen lezen, van beelden tot en met emoties. Het webinar is terug te kijken in 3 delen:
- Deel 1 over Brein-Computer Interface
- Deel 2 over Computer-Brein Interface
- Deel 3 over Neurorechten
Deel 1 van het webinar Ontdek Neurotechnologie. Te gast: Pim Haselager.
LYKLE DE VRIES: Welkom bij het webinar Ontdek Neurotechnologie van RADIO, de RijksAcademie voor Digitalisering en Informatisering Overheid. Onze gast vandaag is professor Pim Haselager. Mijn naam is Lykle de Vries, en we gaan proberen om in een uur tijd, in drie delen, een afdoende beeld te schetsen van neurotechnologie. Wat het is, wat je ermee zou kunnen en wat je er wellicht nog van zou moeten vinden. Jullie zijn als kijkers van harte uitgenodigd om je vragen te stellen. Doe dat vooral zodra die vraag je te binnen schiet. Collega's van mij zitten klaar om de vragen te modereren. Het verhaal is in drie blokken opgedeeld. Aan het eind van ieder blok pak ik de vragen erbij en leg ik ze voor aan professor Pim Haselager. Welkom, fijn dat je er bent.
PIM HASELAGER: Dankje.
LYKLE: Mag ik je vragen om jezelf te introduceren en van start te gaan?
PIM: Ja, mijn naam is Pim Haselager. Ik werk bij de Radboud Universiteit als hoogleraar op het gebied van maatschappelijke implicaties van kunstmatige intelligentie en cognitieve neurowetenschap. Dat is inmiddels ook een afstudeerrichting. In de master AI kun je bij ons in twee jaar leren, verantwoorden innovatie mede mogelijk te maken. Vandaag gaat het echt vooral over neurotechnologie. Dat is eigenlijk de relatie tussen computers en het brein. Dat kan verschillende kanten op. Dat kan van brein naar computer. Dat heet ook wel 'brain-computer interfacing', maar tegenwoordig gaat het ook vaak over hersenlezen, dus het decoderen van hersengedrag. Ik kom daar straks nog op terug. Het kan ook de andere kant op, van computer naar brein. Dan noemen we dat hersenstimulatie. Dat is het schrijven in het brein via computersignalen. Je kunt dat tegenwoordig ook steeds meer combineren, zowel binnen een brein, dus decoderen en stimuleren, als tussen breinen. Dan gaat het echt het ene brein uit en het komt het andere brein in. En zeer recentelijk, de laatste vier, vijf jaar, is het ook steeds meer toepasbaar in dagelijkse situaties. We noemen dat 'taking it to the street'. Grote bedrijven zijn er ook steeds meer in geïnteresseerd, wat tot discussie leidt over neurorechten. Daar hoop ik mee af te sluiten.
LYKLE: Helder.
PIM: Dat is de opzet. Laten we beginnen met deel 1, van brein naar computer. Dat kan ik het beste uitleggen aan de hand van dit filmpje. Dit gaat over een persoon uit Utrecht die in Zwitserland geholpen is. Hij was verlamd aan zijn benen en er is als het ware een bypass gecreëerd van zijn brein, buiten z'n ruggengraat om, naar het stimuleren van zijn benen, zodat hij weer een beetje kan lopen. Laten we daar even naar kijken.
In beeld: Amerikaanse nieuwsvideo.
VO: This morning, a medical breakthrough. Researchers using the power of one man's thoughts, to help overcome his decade-long battle with paralysis.
MAN: Of course you dream of walking.
VO: Overnight Gert-Jan Oskam's speaking with ABC News, describing the 2011 motorcycle crash that left him paralyzed from the waist down.
GERT-JAN: I tried everything at home, trying to stand up and making steps, but it wasn't enough.
VO: Last year, researchers in Switzerland surgically inserted electronic implants to the areas of Oskam's brain and spinal cord, that control movement. With the help of artificial intelligence, AI, they build what they call 'a digital bridge' between his brain and spine, bypassing his injuries, essentially putting his thoughts into action.
GERT-JAN: So I think about moving my leg, and then the stimulation gives me a pulse to make the step.
VO: While this type of AI has been used in medecine for decades, now researchers are saying this is the first succesful procedure of its kind. AI being used as a thought-decoder, processing what the neurons in the brain region are trying to do, and sending that signal to the spine.
MANNELIJKE ARTS: We reestablish this communication with a digital bridge that transforms the thought into action.
VO: His small steps are potentially a giant leap for patients with spinal cord injury. Even when Oskam's implants are turned off, he says he can still walk with the help of crutches.
VROUWELIJKE ARTS: Our mission is to bring it to other people.
In beeld: einde nieuwsvideo, terug naar de studio.
LYKLE: Wauw.
PIM: Ja, dat is gewoon indrukwekkend, en zeker niet het enige voorbeeld. Er zijn er meer van. Heel interessant hieraan ook is de te verwachten uitbreiding, namelijk de weg terug. Dit gaat van hersensignalen naar spierbeweging, maar deze persoon voelt, zijn sensorische zintuigen, het gevoel in je voet, om zo maar te zeggen, kan soms ook verstoord zijn. En dat kan nu ook steeds meer gerestaureerd worden via zo'n zelfde bypass. Dus dan is er een bypass de ene kant op, van brein naar spieren, maar ook van sensorische cellen, in de voetzolen bijvoorbeeld, terug naar het brein.
LYKLE: Dat zou de feedbacklus sluiten en dat is voor mensen nog comfortabeler.
PIM: Ja, exact. Daar zijn echt grote ontwikkelingen in. Al blijkt het in de praktijk altijd nog ontzettend vermoeiend te zijn om op die manier te lopen. Er is een heel team omheen. Dat is zeker niet makkelijk. Een andere vorm van BCI, brain-computer interfacing, is dat je niet je eigen ledematen, maar een artificieel ledemaat aanstuurt. Een robotarm bijvoorbeeld. Hier zie je iemand die 'completely locked-in' is, dus echt alleen vanaf hier nog controle heeft over spieren. Die kon via haar gedachten, ook weer gemeten via zo’n systeem, de robotarm zodanig aansturen dat ze zichzelf eten kon geven, zoals chocola. Ze zei toen ze dat gedaan had: 'This is a small piece of chocolate for humanity, but a giant piece of chocolate for me', analoog aan Apollo natuurlijk. Ik zei al: we gaan steeds meer ook hersentoestanden decoderen, dus dat het niet alleen maar gaat om de functie ervan, namelijk het ene been voor het andere zetten, maar gewoon: wat is nou de inhoud van die gedachte? Waar denkt iemand aan of wat stelt iemand zich voor? Dat is het hele oude gedachtenlezen. Dit is begin 20e eeuw, al een voorbeeldje daarvan, met zelfs het labeltje 'Eindhoven' in dat tekeningetje als je goed kijkt, waarin iemands hersenactiviteit door een soort EEG-machine wordt gemeten, en iemand decodeert dat dan in bijvoorbeeld taal. Dat is een soort van droom of nachtmerrie geweest. Ik neig, afhankelijk van het moment, naar beide. Maar tegenwoordig begint dat dus echt mogelijk te worden. In principe is 'brainreading' nu niet meer uit te sluiten, en dat betekent, ik zal daar zo wat voorbeelden van geven, dat je dus echt kunt kijken naar de inhoud of het vermogen van iemand om bepaalde dingen te doen of aan bepaalde dingen te denken. Dat is een interessante ontwikkeling, waar ook een hoop kanttekeningen bij te maken zijn, maar daar komen we nog op.
LYKLE: Hoe werkt het?
PIM: Ja, hoe werkt het. Computers spelen daar een hele grote rol in. Voordat ik een paar voorbeelden wil laten zien, ga ik eerst even met u naar diep-lerende neurale netwerken. Dat klinkt wat ingewikkeld, maar dat zijn computermodellen die gebaseerd zijn op onze kennis over het brein. U ziet aan de linkerkant van het scherm plaatjes van neuronen, hersencellen. Daar hebben we er ontzettend veel van. En die zijn allemaal in meer of mindere mate actief. Nou maken ze normaal geen geluid als ze actief zijn, maar je kunt ze verbinden aan 'n speakertje en dan klinkt het ongeveer als volgt.
(STATISCHE RUIS)
LYKLE: Beetje statische ruis of popcorn in de pan.
PIM: Mensen vinden het over het algemeen helemaal klinken als niks, maar voor mij is het een van de mooiste geluiden die ik ken, want al onze gedachten, al onze hoop, onze angsten, ons gevoel, onze verliefdheid is gebaseerd, mede mogelijk gemaakt, door dit soort activiteit van hersencellen.
LYKLE: Want we luisteren naar elektrische pulsjes, of zo.
PIM: Ja, dat zijn hersensignalen die via een axon van het ene neuron naar een ander neuron lopen. Die zorgen ervoor dat we op een gegeven moment kunnen denken en voelen. Het is vooral de coördinatie tussen al die hersencellen. Het is niet één cel op zich die denkt, het is de combinatie ervan. Dat komt neer op die activiteit. En die neuronen liggen als het ware georganiseerd in een soort van, we noemen dat soms 'de snelwegen van het brein'. U ziet op het plaatje rechtsboven de retina. Daar zitten lichtgevoelige cellen. Dat zijn neuronen die actief worden als daar licht op valt, of juist niet, en ook met elkaar in competitie zijn. Hele ingewikkelde processen zijn dat. Die signalen worden doorgegeven via een schakelstation halverwege naar de visuele cortex achterin. Daar worden de eerste contouren van het object verwerkt en vervolgens gaat het naar boven toe voor de locatie in het visuele veld. Is dat links van me, is dat rechts van me, is dat recht voor me? Of naar beneden toe, en daar wordt het gecategoriseerd, gelabeld. Is dit een tafel, is dit een stoel? Dat gebeurt in parallel. Op die manier zie je dus op een gegeven moment een tv-scherm recht voor je, zoals ik nu zie, of een camera recht voor me.
Die netwerken kun je nabootsen in computers. Dat zijn die zogenaamde diep-lerende neurale netwerken. Eén voorbeeldje ziet u daar. Je geeft weer input op de inputlaag. Dat zijn de functionele equivalenten van die lichtgevoelige cellen op de retina. Bijvoorbeeld plaatjes van gezichten, foto's, filmpjes, frequenties van foto's. Die worden verwerkt door het netwerk. Onder invloed van een bepaalde feedback leert die dan bijvoorbeeld onderscheid maken tussen jonge gezichten, oude gezichten, mannengezichten, vrouwengezichten, iets dat ertussenin zit. Die neurale netwerken zijn enorm flexibel. Die kunnen eigenlijk van alles leren. Een mooi voorbeeld daarvan, een filmpje dat ik straks wil laten zien, is het spelen van computerspelletjes. Dit zijn die oude Atari-games uit de jaren 80. Ik heb m'n eerste computerprogramma's geschreven op de Commodore 64. Als ik dat aan m'n studenten vertel, zegt het ze helemaal niks, maar er zijn vast nog mensen die dat herkennen. Met het casettebandje als geheugen.
LYKLE: Vergelijkbare herrie.
(GELACH)
PIM: Dat netwerk krijgt die input, net zoals wij kijken naar een beeldscherm, die krijgt pixel voor pixel de input van het scherm te zien. Dat zijn pixels met verschillende kleurtjes. Die kan via die blauwe cursor onder in het schermpje daarop reageren, terugschieten, om het zo te zeggen, naar links en naar rechts bewegen, en die ziet aan de score of die het goed of slecht doet, net als wij. Na verloop van tijd leert die dat spelletje spelen. U ziet op het scherm Demis Hassabis, de grote man van Google Deep Mind, en die legt het even uit. Laten we daar naar kijken.
In beeld: Demis Hassabis geeft een presentatie.
DEMIS: Different Atari-games. I'm just gonna run this video now, this 1-minute video. This is Space Invaders, the most iconic game probably on Atari. This first minute, this is the first time the AI has ever seen this data stream. It doesn't know what it's playing, what it's controlling. You can see it's actually losing its three lifes. It's controlling the rocket at the bottom of the screen and it's losing its three lifes immediately, because it doesn't know what it's doing. But after you leave it playing overnight on a single GPU machine, you come back the next day, and now it's superhuman at the game. It has learned through itself, through experience how to play. You can see now every single shot it fires, hits something. It can't be killed anymore. It has worked out that the pink mothership that comes across the top of the screen is worth the most number of points. It does these amazingly accurate shots to do that. Those of you who remember Space Invaders: as there's less of them on the screen, they go faster. Just watch the lost shot that the rocket does. This is a predictive shot to hit the last Space Invader. You can see how perfectly it modelled the game world and that data stream. It's so accurately, it can predict ahead of time what's gonna happen. Just from the pixels on the screen. There's a second video, my favourite video actually. This is a game of Breakout. There's more gradations here of the agent, the system getting better. This is after a 100 games. Just a 100 games, and you can see again here the system is pretty terrible, but you can probably convince yourself that it's starting to get the hang of the fact that it should move the bat towards the ball. This is after 300 games, so it's now hitting the ball back pretty consistently and almost never missing, so it's as good as the best humans can be at this game. Then we thought: 'That's pretty cool, but what would happen if we just left the machine playing the game for a couple more hundred games?' This amazing thing happened. It discovered the optimal strategy to dig a tunnel around the left-hand side here and then send the ball with this unbelievable accuracy around the back. So that's really cool, because the brilliant programmers and researchers who are on this programme are brilliant at programming and algorithms, but are not so good at playing Atari. So they didn't actually know that strategy for themselves. This is something their own creation taught them.
In beeld: einde fragment, terug naar de studio.
LYKLE: In de video, jij zei het net ook al, legt hij ook uit: Er zit herhaling in, het systeem wordt getraind. Is dat net als een jong mens, een kind iets leert gebruiken?
PIM: Ja en nee. Het is altijd een beetje ingewikkeld. Het leert aan de hand van voorbeelden. In dat opzicht is het vergelijkbaar. Maar het leert aan de hand van veel meer voorbeelden dan mensen nodig hebben. Honderdduizenden, misschien wel meer. En dat wordt mogelijk gemaakt, omdat die computers inmiddels zo snel zijn, dat ze ongelofelijk veel berekeningen kunnen uitvoeren per seconde, sneller dan het menselijk brein dat kan. Dat is het grappige, interessante of het vervelende, net hoe je het zien wil. Onze rekensnelheid blijft altijd hetzelfde. Die is biologisch bepaald. Dat heeft ook te maken met bloedtoevoer in de hersenen, er moet zuurstof bij. Bloed stroomt met een bepaalde snelheid, dat kun je niet zomaar versnellen. Die computers worden steeds sneller. Dus ook al zijn de technieken wel degelijk door het brein geïnspireerd, ze zijn echt niet hetzelfde. Eén giga verschil bijvoorbeeld, ook best belangrijk in het kader van duurzaamheid, is dat de energie die het brein verbruikt bijna nihil is vergeleken met de hoeveelheid energie die in een computer gaat zitten.
LYKLE: Ik wou een vergelijkbare observatie maken. We zijn dus van onszelf sneller goed hierin dan in het aantal trainingen van een...
PIM: Ja.
LYKLE: Maar je kunt het niet vergelijken, want een computer gaat zoveel sneller.
PIM: En wij hebben het te danken aan miljoenen jaren evolutie, terwijl de computer daar toch pas vrij recentelijk mee begonnen is. Dus we weten niet hoe dit gaat aflopen. In elk geval: deze neurale netwerken spelen een cruciale rol in het leren van de correlaties tussen plaatjes en hersenactiviteit. Dus denk weer even aan het dieplerende neurale netwerk dat ik net liet zien. Dat ligt als het ware als een brug tussen plaatjes aan de ene kant en hersenactiviteit aan de andere kant. Dus die computer, net als bij dat spelletje, leert als het ware het verband: als dit plaatje er komt, is de hersenactiviteit zo, als dat plaatje er komt, is de hersenactiviteit zo. Na een heleboel voorbeelden kijkt die op een gegeven moment alleen nog maar naar de hersenactiviteit en zegt dan: als dit de hersenactiviteit is, op basis van wat ik geleerd heb moet dit de input geweest zijn. Dus dit is het plaatje dat iemand gezien heeft. En dat lukt eigenlijk steeds beter. Dus die netwerken leren de correlaties tussen stimuli, dat hoeven niet altijd plaatjes te zijn, kan ook taal zijn, gevoel of wat dan ook, en hersenactiviteit, en kijken vervolgens nadat ze getraind zijn alleen naar de hersenactiviteit en doen dan een goed geïnformeerde gok over wat de stimuli zijn. En daar worden ze steeds beter in. Dat is het principe onder hersenlezen. En dat danken we heel erg aan kunstmatige intelligentie. Dat kan bijvoorbeeld op basis van taal. Ik kan hier de details niet helemaal gaan doornemen, maar het wordt steeds meer mogelijk om naar de neocortex te kijken, de activiteit daarvan, waar taal als een soort van netwerk overheen ligt gedrapeerd, gerepresenteerd door het brein. Dan kijken we naar de activiteit van verschillende hersengebieden en dan kunnen we daar de talige interpretatie uit halen. Dus je kunt op een gegeven moment toch gaan zien, of in ieder geval goed geïnformeerd voorspellen of identificeren, waar iemand aan denkt in het kader van natuurlijke taal. Dat is een interessante ontwikkeling, maar dat betekent natuurlijk ook dat de 'privacy of thought'… George Orwell in '1984' schreef ooit: ‘De enige privacy die je in die samenleving had, was aan de binnenkant van je schedel.’ Dat is misschien een gepasseerd station aan het worden. Daar mogen we wel even over nadenken, maar daar komen we straks nog op terug. Hetzelfde geldt voor gezichten decoderen. De visuele cortex, achter in het brein, is enorm krachtig in het herkennen van gezichten. Daar zijn speciale hersengebieden bij betrokken, die ik niet hoef te noemen. We zijn steeds beter in staat om te zien welk gezicht iemand gezien heeft, puur door te kijken naar de hersenactiviteit. Nou denkt u misschien: 'Maar we weten het toch? Dat is het plaatje, dus wat heeft het voor nut om dat te gaan decoderen?' Nou, we weten dat diezelfde hersenactiviteit ook van belang is als je je op een gegeven moment iets voorstelt. Dus als je zit te dagdromen, of als je aan iemand denkt. Dan is dat plaatje er natuurlijk niet, maar kun je door het kijken naar de hersenactiviteit misschien raden over wie iemand zit te dagdromen. Hetzelfde geldt voor dromen. Ik noemde net dagdromen, maar ook 's nachts. Er zijn nu al voorbeelden waarin we de inhoud van dromen, weliswaar nog niet tot op het niveau van individuen, maar wel van categorieën 'droom ik van een man, droom ik van een vrouw?' En onder sommige omstandigheden kan dat natuurlijk heel interessant zijn, of riskant. Je kunt ook seksuele opwinding in het brein waarnemen bijvoorbeeld. Homoseksualiteit is in sommige landen verboden en kan de doodstraf op staan. Als iemand daar per se achter wil komen, is dit een middel om tegen de wil van iemand in daar misschien een beeld van te vormen. Daar moeten we dus wel over nadenken. Daar komen we nog later op terug. Het geldt ook voor emoties. We hebben het over plaatjes gehad, over taal, maar ook emoties zijn steeds beter te herkennen met hetzelfde soort principe als ik net al uitlegde op het gebied van emoties: hoe voelt iemand zich eigenlijk? Ook dat zijn misschien zaken die je privé wilt houden. Of ik nou hier nerveus zit, angstig of niet... Ik hoop dat dat niet zo overkomt, dat ik heel zelfverzekerd en vrolijk m'n woordje doe, maar het is onder bepaalde omstandigheden wel degelijk mogelijk om daar dus een nadere blik op te werpen. Daar mogen we goed over nadenken.
LYKLE: Dan komen we aan het einde van dit eerste deel. Ik ben heel benieuwd, kijkers, of jullie ook vragen hebben naar aanleiding van deze eerste uitleg. Mij schiet er in ieder geval een te binnen. Ik heb recentelijk nog gelezen over dromen en het onderzoek dat er naar gedaan wordt. Daarin werd gesteld dat de resolutie van dromen vrij laag is. Je kijkt televisie in 4K misschien wel, maar dit is een vrij pixelig beeld. Is dat dan een beperking om het uit te lezen of niet?
PIM: Ja, het worden nooit de plaatjes op basis van hersenactiviteit, maar, en daar komt AI weer om de hoek kijken, in een iets andere rol: AI is ook heel goed in het verminderen van de ruis ten opzichte van het signaal dat in die informatie zit. Ook satellietbeelden, een voorbeeld waar nu veel aandacht voor is, zijn op een gegeven moment te onscherp. Je kunt vrij nauwkeurig kijken met een satelliet, maar op een gegeven moment is de resolutie toch te beperkt. AI kan gebruikt worden, ook weer na training, om die resolutie kunstmatig te vergroten, waardoor je tuintjes tot op de vierkante meter in kaart kan brengen. Daar moeten we ook over nadenken. Hetzelfde geldt eigenlijk voor die activiteit. Het brein representeert niet fundamenteel anders meer. Dat ligt wel evolutionair. De tijdschaal wordt dan te groot om daar nog grote veranderingen in te verwachten. Maar die algoritmes die dat decoderen en die het plaatje scherp gaan stellen, gaan op basis van heel veel informatie dat nog wel een stuk aanscherpen. De verwachting is dat we daar wel in vooruitgaan, ook al blijven bepaalde beperkingen principieel tot het brein behoren.
LYKLE: Je noemt het brein-computer interface. Is het tot op dit moment altijd een fysieke verbinding tussen ons lichaam, ons brein, en de computer? Dus het gaat niet zonder dat je het merkt?
PIM: Nou... In praktische toepassing op dit moment zeker niet. De vraag is op een gegeven moment in hoeverre je op afstand dingen kunt gaan meten. Stimuleren is gek genoeg misschien dan makkelijker, maar daar komen we nog op. Maar een belangrijk probleem is dat als je eenmaal gemeten wordt, je niet precies weet wat er gemeten wordt en waarom. Als je eenmaal een EEG-setje op hebt, en dat zijn tegenwoordig hele draagbare 'koptelefoons', maar dan niet op je oren, maar op de voorkant van je hoofd, dan kun je denken dat er activiteit A wordt gemeten van jou, maar niets vertelt jou, ook je eigen ervaring niet, of er niet toevallig ook B, C of D gemeten wordt. Dus als er eenmaal gemeten wordt, weet je niet zeker meer wat. Dat is een interessant punt om misschien later nog op terug te komen.
LYKLE: Nog één vraag, van Duco Kuipers. Die vraagt: 'In hoeverre zijn de hersenpatronen universeel? Of moet zo'n AI per persoon getraind worden?'
PIM: Goede vraag. In principe is elk brein verschillend. Soms behoorlijk verschillend. Dus het is zeker niet zo dat als een algoritme op jouw brein getraind is op dat van mij, dat die het dan even goed doet. Maar er lijken wel structurele overeenkomsten te bestaan tussen het ene brein en het andere. Dus bij taal, ik kon daar toen niet in detail op ingaan, zie je die plaatjes, bepaalde hersengebieden met nummertjes. Al die hersengebieden zijn net even anders in het ene brein dan in het andere. Er zitten vier plaatjes van vier verschillende hersenen in. Maar ze liggen wel in dezelfde verhouding tot elkaar opgeslagen. Dus er zit een invariantie in, waardoor het algoritme dat op jou getraind is, bij mij niet meteen kansloos is. Slechter dan bij jou, maar het werkt nog wel. En ook hiervoor geldt weer: op het moment dat een algoritme in staat is om die systematische vervorming tussen het ene brein en het andere te weten te komen, kan die gaan corrigeren, en de efficiëntie van het algoritme verbetert dat zonder dat ik verder m'n medewerking aan hoef te verlenen. Dus dat is in het veld bijzonder in ontwikkeling.
LYKLE: Linda Miedema vraagt zich nog af: 'Als je op deze manier taal herkent in hersenactiviteit, is er dan ook andere activiteit als er een andere taal wordt gesproken?'
PIM: Ja, de activiteit is sowieso anders. En eigenlijk weten we op dit moment nog niet heel goed hoe dat precies uitpakt, want er zijn natuurlijk mensen meertalig. Zeker in Nederland, maar ook in andere landen natuurlijk. En het is op dit moment nog niet helemaal helder hoe die talen over elkaar heen verwerkt liggen. Ik heb een collega, die is inmiddels met emeritaat, Ton Dijkstra, die daar misschien meer over zou kunnen vertellen. Maar dat is een interessante uitdaging. Hoe zit dat met meertaligheid? Net zo, ik zei over die invariantie net tussen breinen, weten we nog niet helemaal zeker hoe dat werkt voor interculturele verschillen. Het zou zo kunnen zijn dat taal bij westerse sprekers van bepaalde talen een zekere invariantie vertoont, maar dat dat met andere culturen misschien wel heel anders is, of juist hetzelfde. Dat zijn we nog aan het onderzoeken. Dat zijn openliggende gebieden.
LYKLE: Met dat antwoord komen we aan het einde van dit eerste deel. Dank, professor Pim Haselager, voor al deze uitleg. Dank aan mijn collega's voor het modereren van de vragen. Dank aan de mensen van Online Seminar voor het faciliteren. Wil je meer weten over neurotechnologie en allerlei andere digitale ontwikkelingen? Ga dan naar RADIO, RijksAcademie voor Digitalisering en Informatisering Overheid, en daar vind je nog veel meer. Dank voor het kijken en tot de volgende keer.