Line

Onderzoekers aan de Columbia University hebben een manier gevonden om gedachten te lezen en die om te zetten in spraak. Dat klinkt heel eng, Gert-Jan. Ja, het is een spannend verhaal en een eerste stap ertoe is gezet. Dus we kunnen nu veel nauwkeuriger dan eerst reconstrueren wat iemand heeft gehoord. Stel, jij hoort van mij. 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Dan worden jouw hersengolven gemeten terwijl je dat hoort, en die worden weer omgezet in spraak door een computer, en dan hoor je dit. Ja, dat is een beetje een verkoude serie, maar je snapt het idee. Wat ik me afvraag, hoe lang duurt het nog voordat een computer dan echt mijn gedachten kan lezen en die dan kan uitspreken? Dat vragen we aan Arjen van Hesse, onderzoeker taal- en spraaktechnologie aan de Universiteit Twente. Goedemiddag. Goedemiddag. Is dit nou een doorbraak, wat we nu horen? Ja, het is een onderzoek dat al heel lang bezig is. We proberen al heel lang in het Universiteit Twente iets te doen met dingen waar je aan denkt. Zo hadden we daar een spelletje, daar konden twee studenten tegen elkaar spelen, een balletje naar links en naar rechts duwen, en die hartse dacht die won. Dit is de volgende stap, omdat we echt naar de betekenis gaan kijken. We horen geluiden. We horen acht, we horen vijf, en via de hersengolven die we meten en een neuronnetwerk dat erachter zit, proberen we dat om te zetten in de volkoder die jullie net lieten horen, die dat dan gaat uitspreken. Dat uitspreken is natuurlijk eigenlijk een beetje Onzin straks, want de volgende stap is dat het rechtstreeks als een woord op een scherm verschijnt of dat het een factie is die je gaat ondernemen. Maar dit is toch wel redelijk een doorbraak. Het roept echter ook enorm veel vragen op. Namelijk, wat meet je nou precies? Is het het akoestische signaal, het woord eet dat je hoort met je oren en je hersenen? wordt vertaald of is het het conceptacht, het cijferachtig, hoe je dat ook wilt visualiseren en wat in ons hersenen en dat we dat vertalen. Dat zijn eigenlijk wel de vragen. Ze kijken naar wat je hoort, maar dat is natuurlijk iets anders dan wat je denkt, toch? Ja, maar de volgende stap is wat ze gaan doen is dat je interne spraak hebt. Ik denk dat je dat zo kent. Je moet ergens een praatje houden en voor jezelf ga je vast nadenken, ik ga dat zeggen. Hartelijk gefeliciteerd met uw verjaardag. Dat spreek je niet uit, maar dat denk je in je hoofd. Dat is nu de volgende stap die ze gaan doen. Of die geluiden als die gedachten denken dat. Dan kunnen we dat ook gaan meten, de interne spraak. En ook daar gelden dezelfde dingen. Is het het concept dat je meet, of is het echt de activiteiten van je hersenen... die als ware die spraak alvast voorbereiden voordat je het uitspreekt? Want ze doen dit met kunstmatige intelligentie, toch? Nou ja, wat je doet, je meet de hersengolven. Dat kan, dat is niet zo heel erg moeilijk. Maar dat zijn hele vage patronen die eruit komen en die vage patronen die moeten leiden tot iets concreet. En dat is hetzelfde als een foto op internet van een poesje of van een mond. En als je dat maar vaak genoeg zegt, hier staat een poes op, dan leert zo'n neuraal netwerk, en dat is kunstmatig intelligentie, leert plaatjes te herkennen waar een poes of een hond op staat. En hier leert zo'n programma om te weten, dit is een 8 en dit is een 7 en dat is een 6. En dat wordt vertaald door die focoda. En dit is een stap, maar wat is nou de volgende stap om uiteindelijk mijn gedachten direct uit te kunnen laten spreken door een computer? De volgende stap is, dit is niet zo heel moeilijk, je doet dat altijd met hele discrete cijfers. Dus de cijfers 0 tot en met 9. De volgende stap is geïsoleerde woorden. Bijvoorbeeld appeltaart of brood of auto. Duidelijke objecten. Ik denk ook heel vaak een appeltaart. Nou, kijk eens aan. Dan weet ik al wat die voorcoder gaat zeggen. Maar dat is dus de volgende stap en als dat een beetje lukt, dan ga je naar complexe woorden en dan ga je naar zinnen. Dus van ik wil koffie. En dan kunnen we dit straks, en dat lijkt me hartstikke fijn voor mensen die bijvoorbeeld moeite hebben met spraak, maar kan het ook de verkeerde kant opgebruikt worden? Dus dat mensen mij verdachten kunnen gaan lezen zonder dat ik dat wil? Het is nu ook al zo, je ziet dat, en die pogingen zijn ook helemaal niet heel erg succesvol, is dat ze leugendetectors proberen te maken en dan kijken ze naar je gezicht, naar je spiertjes, naar de manier waarop je iets zegt. Proberen ze te schatten of je de waarheid spreekt, ja of nee. En als deze technologie wat volwassener is, dan zul je zien, dat was de vraag van, goh, wilt u de president vermoorden? En je denkt eigenlijk, ja, dat wil ik dan, maar dat zegt je niet, dat ze toch die gedachten er weer kunnen halen. Dus ze moeten er wel voorzichtig mee zijn met deze technologie? Ja, we moeten er voorzichtig mee zijn, met alle technologie, het kan altijd voor goede en slechte dingen gebruikt worden. En als het één keer kan, dan wordt het toch ontwikkeld, want het is natuurlijk fascinerend om die stap te zetten van iets wat in je hoofd zit naar iets wat je op het scherm ziet of wat je kunt horen. En vervolgens is het dan ons mensheid om daar netjes mee om te gaan. Dank Arjen van Hesse, onderzoekhortaal en spraaktechnologie van de Universiteit van Twente.


BNR_2019_Gedachtenlezen.wav
 0.0
Time_indexConfidentialitySpeaker