Ik ben Arjan van Hessen. Ik besteed mijn werkweek aan drie opdrachtgevers. De universiteit Twente en Utrecht en uiteraard Telecats in Enschede. Ik hou me bezig al een jaar of dertig met taal- en spraaktechnologie. En de ontwikkelingen van de laatste jaar zijn zo ontzettend spectaculair... ...dat we het ontzettend gaaf vinden om jullie hierin mee te nemen. Een gigantische stap in de kunstmatige intelligentie. Kunstmatige intelligentie. Het is een term die zo na de oorlog eigenlijk begon, toen de eerste computers kwamen. Zo 1950. Maar dat waren vooral regels. Zo als er water op het glas viel, dan regende het blijkbaar en gingen de ramen dicht. Later, en dat is dan echt 30 jaar later, in de jaren 90, kwam machine learning eigenlijk omhoog. kwam op en dat werd in de jaren 2005 tot 2015 werd dat vervangen, gecombineerd met deep learning. En de laatste paar jaar zijn we eigenlijk bezig met generatieve modellen, GPT, generatief pre-trained transformer. En dat wil zeggen dat wat jij gaat vertellen, dat dat eigenlijk gegenereerd wordt door de software. Kunstmatige intelligentie die zo krachtig wordt dat de mens de controle verliest. Het is een doemscenario dat filmmakers al decennia bezighoudt. Maar ook in de echte wereld maken prominente experts zich zorgen over de snelle ontwikkeling van kunstmatige intelligentie, zoals Elon Musk. Ze pleiten er nu voor om de ontwikkeling van kunstmatige intelligentie zes maanden stil te leggen. Die tijd moet gebruikt worden om toezicht en regels op te stellen voor het gebruik van AI. Hoe kunnen we kunstmatige intelligentie onder controle houden? Als we daarnaar gaan kijken, dan zien we gewoon de zin en de onzin van de AI-hype. Ik neem aan dat de meesten van jullie het nieuws wel hebben gevolgd. Wat we hebben gezien, dat was volgens mij in februari, maart, dat er zo'n brief kwam van een aantal onderzoekers zo van we moeten een pauze instellen op het gebied van de volgende generatie chat-GPT of GPT's. Ja, daar waren veel mensen het wel mee eens. Maar wat is nou precies een pauze? Zelf heb ik hem ondertekend, maar met het idee van... ...ik vind het goed dat die discussie er komt. Dat we met z'n allen bij elkaar gaan zitten en gaan nadenken over... ...oké, die GPT die komt, die wordt krachtiger en krachtiger. Wat willen we daar precies mee? Wat zijn de grenzen aan wat we accepteren? Wat zijn de grenzen voor de maatschappij die we hebben? Een van de zaken die lastig is bij AI, en zeker ook in de presentatie daarvan, is dat het suggereert dat onze wereld bekend is aan de AI, maar dat is hij eigenlijk helemaal niet. Dingen als empathie, of ik vrolijk ben, of dat ik bedroefd ben. Nogmaals, AI is wel in staat om dat op te merken. Om te zeggen van meneer is bedroefd of meneer is heel erg vrolijk. Maar wat daar nou voor gevoel achter zit, wat wij mensen hebben, dat ontbreekt. En dat zie je ook in de visuele wereld. Je kunt op een gegeven moment een plaatje laten zien. En dan zeg je van nou, dat ziet er allemaal geweldig uit. Ik wil dit in het echt ook hebben. Totdat je beter gaat kijken en dan zie je bijvoorbeeld, zoals je nu ziet in dit plaatje, dat er een kampvuur in een tent is. Nou, dat is onzin. Niemand zal dat doen, tenzij je die tent in de fik wil steken. Maar AI heeft geen begrip van de dingen die voor ons vanzelfsprekend zijn. Voor ons is het volstrekt logisch dat je geen vuur doet vlak onder het kartonnen doek van een tent. Maar AI kent dat niet. Er is geen verbod om dat te doen. Dus als je dat vraagt van geef een tent met een gezellig lichtje erin... dan heb je kans dat je een vuurtje erin krijgt. En dat is niet iets wat we uiteindelijk zouden willen. Welkom in de wereld van de chatbot... die leert door het lezen van gigantische hoeveelheden tekst. Bestaande tekst. Tekst die op internet staat. Hoe wordt GPT gemaakt? Het is natuurlijk een verzameling van vrij beschikbare teksten op het internet. Voor een groot deel Engels, maar voor een groot deel ook andere talen dan Engels. En dat de vragen en de antwoorden die door GPT gegeven worden, die worden door mensen over de hele wereld beoordeeld. Of het gevoelige informatie is, of wat er staat waar is, of dat er geen onzin staat, of wat dan ook. Dat zijn de zogeheten Red Teams. En die zijn geformeerd eigenlijk voor GPT 3, toen voor 3,5 en tegenwoordig voor 4. En dat is een mix van academici, van docenten, advocaten, risicoanalisten, beveiligingsonderzoekers. Gewoon echt een hele verzameling van allerlei groepen mensen die met hun eigen ogen daar naar kijken en dan zeggen van nou dit is oké of dit is echt flauwekul of dit is een verkeerd antwoord. De impact van ChatGPT, of eigenlijk van die generatieve modellen, die is best wel groot. Wat kun je ermee? Je kunt het gebruiken voor het formuleren van teksten. Je kunt dus op een gegeven moment zeggen van, maak een excuusbrief, want ik heb een misdrage, of schrijf een goed marketingverhaal, maar niet langer dan een half A4'tje, of wat dan ook. Dus je kunt het echt gebruiken om teksten waarvan jij wel weet hoe die zouden moeten lopen om die te laten genereren en wat je dan zelf kunt doen is dan een beetje herschrijven en dan zorgen dat het voldoet aan wat jij vindt dat het hoort te zijn. Een voorbeeld, en dat is echt wel een serieus probleem, dat is ook laatst in het nieuws geweest, dat een derde van de bevolking begrijpt eigenlijk de communicatie van de overheid niet. Nou, hier hebben we een voorbeeld. En dan heb ik gevraagd van maak van deze zin iets begrijpelijks. Dus dan geef je de zin. Bij maatregelen die de gemeente heeft vastgesteld in een convenant... ligt de focus op een integrale aanpak van het welzijn van ouderen. Goed, ik begrijp wat ermee bedoeld wordt, maar dat zal niet voor iedereen zijn. En GPT kan dan afhankelijk van de dingen die jij wilt... daar iets begrijpelijks van maken. Dat is iets langer om te lezen, maar mensen zullen dan wel begrijpen wat ermee bedoeld wordt. Dat is echt een grote pluspunt van GPT. Nogmaals, je moet dat altijd lezen daarna, maar het scheelt ontzettend veel werk om dat door GPT te laten doen. Maar je kunt het ook een vraag stellen. Herkennen van basisemoties. En dan moeten we erg oppassen met emoties, want dat is echt een heel erg lastig terrein dat absoluut nog niet gaat lukken. Maar de basisemoties, de woede, de vrolijkheid, die kun je meestal wel uit een gesprek halen. Ik baal vreselijk van jullie klantenservice. Jullie doen aardig, een positief iets. Beloven veel, ook goed. Maar uiteindelijk werkt het helemaal niet. Nou, dat is een vraag. Hier zitten positieve en negatieve dingen eigenlijk in één zin. Is dit een positieve of een negatieve melding? En de GPT zegt, dit is duidelijk een negatieve melding. Nou, dat houdt ook in dat je hiermee de resultaten van de spraakherkenning aan de GPT kunt geven en dan deze vragen stellen. Zodat je een goede verdeling krijgt van hoeveel mensen zijn positief, hoeveel mensen zijn negatief. Experts vrezen voor een vloedgolf aan phishing-mails, doordat criminelen steeds vaker chat-GPT gebruiken. In het AD zeggen ze dat de teksten steeds beter worden en dus ook steeds echter lijken. Vooral ouderen die nu al risico lopen om erin te trappen, zijn de dupe. Wat zijn nou de onderdelen van chat-GPT die gevoelig zijn en waar je wel aandacht aan moet besteden? We hebben natuurlijk altijd ethische richtlijnen. In Europa zijn die duidelijk anders dan in China en ook wel anders dan in Amerika. willen we dit in Europa gebruiken, dan zullen we ook gewoon die ethische richtlijnen die voor Europeanen gelden, moeten transponeren op wat GPT doet. We moeten ons ook realiseren dat een engine als chat-GPT, ook al is het antwoord onwaarschijnlijk correct en het zijn eigenlijk altijd goede zinnen en als je het leest denk je, dat is waar. Dat hoeft natuurlijk helemaal niet zo te zijn, want het kan hallucineren, maar het kan ook kleine dingetjes geven die net iets anders zitten. Dus je moet je altijd je aandacht erbij houden van staat hier nou onzin, ja of nee. En bovendien, ChatGPT is gewoon een set codes. En je kunt daar wel empathie uit halen, maar het is natuurlijk niet iets wat een engine erin stopt. Dus een mens kan je aankijken en denken van nou het gaat niet zo goed met meneer, dus ik zal heel erg aardig zijn of wat dan ook. Dat is een vorm van echte empathie. Chat-GPT kan dat niet. Maar naarmate de techniek voortgaat, kun je je wel afvragen van is er nou echt wel een verschil tussen die twee. Maar goed, we gaan dat meemaken. En medewerkers, en dat is wel een nadeel, dat wordt nu als een mogelijk gevaar gezien. Missen bij het gebruik van automatische tekstgeneratie het leerproces. Want ze geven een goede prompt in, dus ze zeggen nou maak deze een tekst. Dan komt er een tekst aan, die zullen ze in eerste instantie nog wel lezen. Maar op een gegeven moment als het systeem goed blijft werken, dan stel je de vraag, antwoord, copy, paste en volgende vraag. En dat kan inhouden dat de medewerkers zelf net iets minder vertrouwd raken met het gebruik van het systeem. dan dat dat nu is. En dat zijn niet echt heel grote bezwaren, maar het zijn wel dingen waar we onder rekening mee moeten houden als we deze techniek gaan gebruiken. En naarmate de customer experience meer digitaliseert, dus nog meer dan nu, Zullen we ook die twee spals zien? Aan de ene kant zijn er hele goede algoritmes die eigenlijk perfect reageren. Aan de andere kant, denk ik, zullen we toch als mensen behoefte blijven hebben aan echt menselijk contact. Hoe zich dat in de CX gaat verhouden, dat weet ik niet. Dat zullen betaalmodellen zijn, maar dat die behoefte blijft bestaan, dat is wel duidelijk. Data en privacy. We zien dat in China het de overheid en het bedrijf eigenlijk die dingen bepalen en dan met name de overheid. In Amerika zijn het het bedrijf en de burgers en dan focus op het bedrijf. En in Europa is het de overheid en de burgers. en moeten bedrijven zich daaraan houden. En dat is... Nou ja, José van Dijk heeft hier een interessant artikel over geschreven... over die verschillende manieren om naar het gebruik van data en privacy te kijken. Op het moment dat we in Europa niks doen, dan zal die software van buiten komen... en die is dus anders getraind dan wij in Europa graag zouden zien. Dus dat zijn echt wel onderdelen waar we rekening mee moeten houden. Hoe zit dat nou precies met die data? Wat wordt ervoor gebruikt? Mag dat? En is mijn privacy hiermee geschonden, ja of nee? Een interessante discussie die ongetwijfeld de komende jaren nog doorgaat. Een van de zaken waar CHAT-GPT, maar ook gewoon taalmodellen voor gebruikt worden, is het beoordelen van sollicitanten. Je hebt op een gegeven moment een job. Je gaat adverteren, dan komen er twintig reacties op, daar moet je een oordeel over geven. Dat kost altijd een hele hoop tijd, een hele hoop moeite, en dan weet je niet zeker of je het goed doet. Kun je nou een algoritme maken gebaseerd op AI, wat geleerd heeft van eerdere sollicitaties, om daar een oordeel over te geven? Ik denk dat je dat niet tegenhoudt. Ik denk ook dat het op zich goed is, maar er zal altijd een mens achter moeten staan die de uiteindelijke beslissing neemt. Maar goed, hier kunnen wel zeker biases, dus verschuivingen in optreden, want als je dit maar doorlaat gaan en doorlaat gaan, dan op een gegeven moment zal het systeem zeggen, oh maar dat is niks voor vrouwen of dat is niks voor mannen. Dan krijgen alleen vrouwen of alleen mannen een bepaalde advertentie te zien. En dat is ook weer niet wat we willen. Dus het is echt een Een heel heikel punt om dit op een goede manier in te zetten. Aan de andere kant, het moment dat je het echt gebruikt als een hulpmiddel, dan denk ik is het een hele goede toegevoegde waarde. En dat heeft ook te maken met de explainable, dus de uitlegbaarheid van kunstmatige intelligentie. Daarover wordt in Europa al een aantal jaren gesproken. Wil je echt AI uitleggen? Er zijn maar heel weinig mensen, en ik hoor daar zeker niet bij, die echt alles van deze AI weten. Ja, hoever je dat nou echt eist dat dat aan de gebruikers wordt uitgelegd, dat is denk ik een stap te ver. Maar je zult wel... enigszins inzicht moeten geven in hoe de algoritmes tot stand komen, welke data ervoor gebruikt zijn. Ook om mensen het vertrouwen te wekken van oké, dit is niet helemaal wat ik had verwacht, maar ik zie wat ze hebben gedaan en ik begrijp ook wel dat het daarom een fout maakt. Dus dat zijn hele lastige dingen. In de Europese gemeenschap is er een soort eis van het moet uitlegbaar zijn, anders mag je het niet gebruiken. Maar wat nou uitlegbaarheid hier precies betekent, dat is echt een heel lastig iets. En dan hebben we nog de fouten van AI. AI is zeker niet feilloos. Dat zijn mensen ook niet. Ik heb ook wel eens als ik iemand bel of een bedrijf bel dat ik echt iemand aan de lijn krijg dat ik denk van nou die heeft het niet uitgevonden. Maar AI is natuurlijk gemaakt. Het heeft de status van ik geef het juiste antwoord. Ik maak geen fouten. We zullen moeten leven met het feit dat ook AI fouten maakt. En de vraag is dan, wie is er dan aansprakelijk voor? Is dat de ontwikkelaar die de engine heeft gemaakt en zegt van nou hier heb je mijn AI engine, die kun je gebruiken voor klantvragen? Zijn dat de bedrijven die dat kopen en inzetten? Of zijn het de gebruikers die op een gegeven moment een stomme vraag stellen en dan ook een stomme antwoord krijgen? Dit zijn hele lastige vragen en er zal geen eenduidig antwoord op zijn. Maar we zullen over de komende jaren, denk ik, processen zien in de rechtbanken. Waarin mensen zeggen van ja, ik ben niet goed geholpen of dit sloeg helemaal nergens op. Ik heb schade geleden, ik wil een vergoeding krijgen. Dus dit is zeker iets wat de komende tijden door zal hangen. De toekomst. Futurologie is bijna altijd verkeerd, omdat hetzelfde rekening houdt met gedragsverandering. En dat is wel iets wat we heel vaak zien. We extrapoleren van nu is de maatschappij zo. Hé, als we dat doen, dan hoeven we minder te werken. Hé, als we dat doen, hoeven we minder te reizen. Maar doordat die technologie er is, gaan we ons ook anders gedragen. En dat is wel iets, en daar heeft Judith Flanders een interessante essay over geschreven. Het feit dat die techniek er is, zorgt niet alleen dat we de dingen die we doen, beter of makkelijker kunnen doen, maar we gaan ons ook anders gedragen. Dat wil zeggen dat als AI echt massaal ingezet wordt in de maatschappij, en daar lijkt het nu wel op, dan gaan we ons ook anders gedragen. We weten niet precies hoe, maar dat het anders zal zijn dan we nu doen, dat zal zeker zijn. Dit was het zomercollege van Arjan van Hessen. Heb je een vraag over kunstmatige intelligentie en chat-GPT? Vul je vraag dan hieronder in en Arjan zal hem beantwoorden in het vervolg op dit zomercollege.
Time_index | Confidentiality | Speaker |
---|---|---|