Open menu
  • Home
  • Schrijfsels
    • Blogs
    • Populaire
    • Wetenschappelijk
    • Drenten
  • In de Media
    • AV
    • Web
    • Krant
    • Lezingen
    • AV-Lezingen
    • Televisie
  • Werk
    • TST & AI
      • Spraakherkenning
      • AI
      • Whisper
      • Knowledge Navigator
      • Showcases
      • LIPS
      • UvN
      • Maastricht
      • Diplomaten
      • TTS
      • URaad
      • Preek
    • Affiliaties
      • UTwente
      • UU
      • Telecats
      • Overige Werkgevers
    • Netwerken
      • NOTaS
      • CLST
      • Levende Herinneringen
      • SOS
    • Infrastructuur
      • CLARIN - NL
      • CLARIAH
      • CLARIN - EU
      • DARIAH
      • CHAT
      • Listen
      • Levend Verleden
    • Projecten
    • Programming
    • Software
    • Over mij
    • LOT 2023
    • NTU
    • Workshop(s)
  • Persoonlijk
    • Arjan
      • Arjan
      • Ouders
      • Zus en Broer
      • Neven en Nicht
      • Grootouders
      • Foto's
    • Brigitte
    • Drentsche Patrijshonden
    • Huizen
      • Samen
        • Burg. Reigerstraat (2010 - ...)
        • Steve Biko (2009 - 2010)
        • Baarnseweg (2007 - 2009)
        • Poortstraat (1994 - 2007)
      • Arjan
        • Poortstraat (1977 - 1994)
        • Sweelincklaan (1972 - 1977)
        • Soestdijkseweg (1965 - 1972)
        • Biltzigt (1958 - 1965)
      • Brigitte
        • Thijssenlaan (1985 - 1994)
        • Braamstraat (1981 - 1984)
        • Voorstraat (1980 - 1981)
        • Hopakker (1980 - 1980)
        • Kemperstraat (1979 - 1979)
        • Verwerstraat (1968 - 1979)
        • Oude Raadhuisstraat (1961 - 1968)
        • Drostlaan (1960 - 1961)
    • Rolanda
      • Levensverhalen
      • Rolanda 85
      • Afnemende Gezondheid
      • Begrafenis Rolanda
  • Interessant
    • Tekst-naar-Spraak
    • Zips Law
    • Conversatie Regels
  • Extra Activiteit

blogs

Open menu
  • Blogs
  • Populaire
  • Wetenschappelijk
  • Drenten

Automatisch beantwoorden van E-mails

‘n reële mogelijkheid of toekomst muziek?

Door: Michel Boedeltje [Dit e-mailadres wordt beveiligd tegen spambots. JavaScript dient ingeschakeld te zijn om het te bekijken.], Arjan van Hessen [Dit e-mailadres wordt beveiligd tegen spambots. JavaScript dient ingeschakeld te zijn om het te bekijken.]

Achtergrond

Bedrijven en organisaties krijgen steeds meer e-mails: logisch want het is makkelijk, je kunt het doen wanneer je wilt en het is (bijna altijd) gratis. Bij nadere bestudering van de inhoud van de e-mails, blijkt een grote overeenkomst met de gesprekken in het call center: 80% van de e-mails gaan over 20% van de onderwerpen. Dat houdt in dat, wanneer je er in slaagt om voor de 20% meest gestelde vragen een algemeen, passend antwoord te maken, je voor 80% van de binnen komende e-mails een kant-en-klaar antwoord hebt.

Dit is ook wat er gebeurt in de zogeheten contact centers. Medewerkers lezen de e-mail en beantwoorden hem middels een voorgedefinieerd antwoord.

Steekwoorden

Er zijn twee manieren waarop het juiste antwoord gezocht kan worden: door de medewerker of door de computer. In de praktijk gaat het echter anders: de computer “leest” de e-mail en schotelt de medewerker op basis van trefwoorden in de e-mail een aantal suggesties voor. De medewerker bekijkt de suggesties en kiest het juiste antwoord. Zolang het aantal suggesties dat de computer voorschotelt klein is (≤5, anders moet de medewerker te veel lezen) en het juiste antwoord er meestal (>80%) bij zit, werkt deze aanpak goed en er zijn verschillende software pakketten te koop die dit zo doen.

Anders wordt het wanneer je meer dan 10 suggesties moet tonen om in slechts de helft van de gevallen er het juiste antwoord uit te kunnen halen: dan wordt het lezen van de suggesties en het alsnog zelf zoeken van het juiste antwoord te tijdrovend en had je het antwoord beter zelf kunnen schrijven.

Uitdaging

Het afstudeeronderzoek van Michel Boedeltje bij Em@ilco in Amersfoort is gestart als een soort wedstrijd: laat zien dat IR (Information Retrieval) technologie in combinatie met taaltechnologie een beter resultaat kan opleveren dan de op steekwoorden gebaseerde methode. Bij de “steekwoorden methode” maakt een mens de keuze om mails met bepaalde woorden aan een bepaald antwoord te koppelen. Staan in de e-mail bijvoorbeeld de woorden “opzeggen” & “internet” dat wordt het standaardantwoord geselecteerd voor mensen die hun internetabonnement willen opzeggen.

Zolang het niet om te gevarieerde mails gaat, werkt dit aardig, maar de resultaten bij Em@ilco lieten zien dat er in de loop van de tijd veel vervuiling optreedt waardoor de resultaten langzaam terug lopen. Mensen zijn blijkbaar niet in staat om voor een verzameling van meer dan 10K (=10.000) e-mails de juiste steekwoorden aan de verschillende standaardantwoorden te koppelen.

Data

De gekozen aanpak was als volgt: verdeel de hele verzameling van 17K (=17.000) e-mail s van de Nationale Postcode Loterij (van iedere e-mail was in theorie het juiste antwoord bekend) in een trainingsdeel (80%) en een testdeel (20%). Laat vervolgens de computer zelf bepalen van welke woorden de aan- en afwezigheid relevant is voor een bepaald antwoord (=klasse). Verander daarbij de test en trainingsgroep een aantal keren zodat er geen toevalligheden optreden en kijk of het eindresultaat beter is. Vermeld moet worden dat de database suboptimaal geclassificeerd was. Van veel e-mails waarvoor het bestaande systeem geen juiste suggestie gaf, was het juiste antwoord op een andere manier aan de afzender gestuurd zonder dit juiste antwoord in de database te noteren. Hierdoor was niet van alle e-mails het juiste antwoord bekend. Ook bleek dat medewerkers vaker dan gedacht verkeerde antwoorden gaven. Tenslotte bleek dat er nogal wat overlap zat in de verschillende categorieën waardoor het, ook voor de medewerkers, niet altijd duidelijk was of een e-mail in de ene of de andere klasse viel.

Aanpak

Deze aanpak klinkt iets simpeler dan het in werkelijkheid is, maar in de basis kwam het hier op neer. Om de rekentijd te verlagen, is het zinvol om de zogeheten stopwoorden (woorden die voor het betekenisonderscheid niet of minder relevant zijn zoals “de”, “het”, “wil”, “mogen”, “wij” etc.) eerst te verwijderen. Vervolgens kan het zinvol zijn de overgebleven woorden te stemmen (fietsen, fiets, fietsje →fiets) om zo de variantie te verminderen. De applicatie moet dan op basis van de resterende woorden bepalen hoe de grenzen tussen de verschillende klassen zo getrokken moeten worden opdat de meeste e-mails in de juiste klasse zouden komen en dus het beste antwoord zouden krijgen.

Resultaat

De resultaten op de 17K e-mails van de Postcode Loterij waren verbazingwekkend goed. Voor ieder aantal suggesties was de kans op succes (d.w.z. het juiste antwoord zit bij de suggesties) meer dan verdubbeld. De kans dat het juiste antwoord erbij zit is bij de nieuwe methode met slechts 2 suggesties al beter dan met 20 suggesties bij de oude methode.

Figuur 1: de resultaten van de verschillende classificatiemethoden vergeleken met de oorspronkelijke, op steekwoorden gebaseerde aanpak. Wanneer we 5 suggesties op het scherm zetten, stijgt de kans van slagen van 40% naar 85%: meer dan een verdubbeling!

De eerste resultaten (slechts gebaseerd op IR-technologie) waren zo goed, dat het toepassen van allerlei taaltechnologie eigenlijk niet zinvol meer leek. Toch hebben we het gedaan en de resultaten werden er alleen maar beter van (hoewel de stijging natuurlijk minder spectaculair was). Zoals uit figuur 2 blijkt is het eerste antwoord in bijna 60% van de gevallen ook het juiste antwoord. Als we dit percentage nog iets kunnen verhogen, dan komt echte self-service (je stuurt een e-mail en het systeem geeft je het (waarschijnlijk) juiste antwoord) binnen bereik.

Figuur2: de resultaten van de twee gebruikte IR-methoden met en zonder gebruik van taaltechnologie. Hoewel het verschil afneemt wanneer veel suggesties worden gegeven, is het gebruik van Taaltechnologie zinvol bij volledige self-service waarbij slechts één of twee antwoorden worden gegeven.

Vervolgonderzoek

Hoewel Michel Boedeltje met dit onderzoek zijn studie zeer succesvol heeft afgesloten en nu bezig is de zelfde techniek bij Telecats op gesproken vragen toe te passen, ligt het vervolgonderzoek voor de hand: kun je iets zeggen over de betrouwbaarheid waarmee een antwoord gesuggereerd wordt. Het is waarschijnlijk dat e-mails die qua woordgebruik erg lijken op reeds beoordeelde e-mails, een hoge betrouwbaarheid zullen krijgen. Als dit zo is, wat wordt dan het slagingspercentage als functie van de betrouwbaarheid. Stel dat voor zeer betrouwbare antwoorden het slagingspercentage (de suggestie is juist) 90% is, dan kan overwogen worden om (al dan niet buiten kantoortijden) de e-mailers automatisch antwoord te geven. Dit moet dan uiteraard gepaard gaan met de mededeling dat het antwoord automatisch gegenereerd is en dat men, als het antwoord niet goed is, de vraag nogmaals kan sturen zonder dat men in een soort “loop” terechtkomt.

Conclusie

Het hier gepresenteerde afstudeerwerk laat ‘n aantal zaken duidelijk zien.

  • De methode werkt goed, ondanks het feit dat de verzameling waarmee het systeem getraind is ( e-mails-met-antwoord) niet 100% correct is.
  • De combinatie van IR en taaltechnologie biedt zeer veel mogelijkheden voor het geheel automatisch beantwoorden van (een deel) van de binnenkomende e-mail
  • Het samenwerken van zowel grote als kleine bedrijven met universiteiten kan zeer lonend zijn. Enthousiaste studenten kunnen op deze manier de op de universiteiten aanwezige kennis direct voor bedrijven geschikt en toegankelijk maken.
  • Volledig automatische selfservice op een deel van de binnenkomende e-mails onder bepaalde omstandigheden mogelijk is.

Dive into the future met AI

logo nvlAmsterdam, 24 juli 2017 - Interview met dr. Arjan van Hessen, als taal- en spraaktechnoloog verbonden aan de Universiteit van Twente en Utrecht en het bedrijf Telecats. Hij is spreker tijdens het NVL Jubileum event op 12 september 2017.

Op dit moment vinden wij veel apparaten nog een beetje dom. Omdat ze niet vooruit kunnen denken en geen emoties (her)kennen. De sleutel tot echt slimme apparaten zit in het 'talig vermogen'; alles wat we bedenken, bedenken we via taal. Met zogenaamde artificial intelligence is men in staat om talig vermogen toe te voegen aan computers en objecten waardoor ze écht intelligent worden, bovendien zelflerend en ook in staat meerdere taken tegelijk uit te voeren.

De inzichten met betrekking tot deze technologie en de toepassingen ervan worden op het NVL Jubileum gepresenteerd door dr. Arjan van Hessen. NVL Next sprak hem alvast en samen keken we vooruit naar 12 september.

Kunstmatige intelligentie of Artificial Intelligence, kortweg AI, is een containerbegrip. Het komt neer op ‘met computers nabootsen van wat wij verstaan onder menselijke intelligentie’.

U bent als taal- en spraaktechnoloog hoofdspreker tijdens een jubileumevent van de Nederlandse vereniging van leasemaatschappijen. Waarom is dat minder onlogisch dan het op het eerste gezicht lijkt?

De laatste tijd is er enorm veel interesse in AI. Systemen proberen patronen te vinden in grote hoeveelheden data en ze proberen te redeneren en te voorspellen. De volgende grote stap is die van het begrijpen en dat is iets waar wij mensen ook goed in (denken te) zijn. Het talige vermogen van mensen dat ons in staat stelt te redeneren over gebeurtenissen, te fantaseren, als-dan scenario’s te bedenken en uit te werken, het abstraheren en het samenvatten. Dat wordt vaak gezien als de menselijke intelligentie. Als je daar wat mee wilt doen met computers, kom je al snel bij de taal en spraaktechnologie: die proberen immers de communicatie tussen mensen en machines na te bootsen door de menselijke communicatie zo goed mogelijk te begrijpen.

Waarom is juist taal een van de meest belangrijke zaken met betrekking tot het lerend vermogen van computers?
Taal, en dan niet “het Frans”, “het Chinees”, of “het Nederlands”, maar het talig vermogen van de mens onderscheidt ons van de overige (zoog)dieren. Dit talige vermogen stelt ons in staat om te leren, te bedenken, te abstraheren etc. Hoe beter we dit begrijpen, hoe beter we in staat zijn om het na te maken en dus hoe slimmer systemen kunnen worden.

Wat is het belangrijkste inzicht dat u de afgelopen jaren heeft ontdekt in relatie tot spraakherkenning?
Duidelijk is geworden dat de stap naar 100% herkenning, die door spraakherkenningstechnologen altijd als een soort heilige graal werd gezien, eigenlijk niet zo relevant is. Ook wij mensen herkennen de spraak niet vlekkeloos, maar we begrijpen de ander (hopelijk) wel volkomen. Gebrek in de herkenning wordt door ons gecompenseerd doordat we begrijpen waar het overgaat. Hiaten in de herkenning vullen we als het ware zelf aan. Daar zit natuurlijk ook een gevaar in: we denken dat we iets gehoord hebben, maar dat is niet altijd zo.. Dit is de stap van herkennen naar begrijpen en die is essentieel!

Facebook en Google investeren fortuinen in fundamenteel onderzoek rond artificial intelligence. Waarom doen ze dat?

Alle grote internetbedrijven investeren massaal in HLT, Human Language Technology. Wie als eerste in staat is om op een enigszins intelligente manier met mensen te communiceren, ze te begrijpen, te ondersteunen en ze te vermaken, heeft de buit binnen. Denk aan ouderen die eenzaam zijn, mensen die iets willen maar er niet uitkomen hoe dat te bereiken etc. Als er een slimme “robot” is die hier met jou over kan praten, je kan helpen…. Dan gaat er een hele wereld open.

Wat zijn voorbeelden van toepassingen van artificial intelligence waar u de komende 3-5 jaar het meest van verwacht?
We zullen AI op alle gebieden tegen gaan komen. Niet alleen in de HLT maar in werkelijk alles. Denk aan het herkennen van beelden, het vroegtijdig opsporen van ziektes op basis van een hersenscan, het voorspellen wanneer een onderdeel in een apparaat vervangen moet worden, het helpen bij medische beslissingen, het ondersteunen van advocaten en rechters, het communiceren met mensen via internet bij bv het aanvragen van een hypotheek, etc. Er is waarschijnlijk niet een gebied waar het niet zal worden gebruikt.

Waar in de keten zou de overheid een rol kunnen of moeten spelen in stimuleren van de toepassingen van artificial intelligence?
De overheid zou veel meer moeten investeren in het opbouwen van de kennis door het verzamelen en (her)gebruiken van data (uiteraard met inachtneming van privacy) te stimuleren. Nu doen de grote internetbedrijven (Apple, Google, Facebook, IBM, Microsoft, Amazon) dat waardoor alle kennis naar de overkant “lekt” en daar ook onze data staan. Onze technici en universiteiten doen niet veel onder voor de Amerikanen, maar het is in Europa veel lastiger om grote hoeveelheden data te bewaren en vooral te hergebruiken. Als dat eenmaal gaat dan komen de toepassingen vanzelf. Maar we moeten oppassen het goud (de data) niet te verkwanselen aan anderen.

Je bent ook actief in het bedrijfsleven, bijvoorbeeld klantcontactsector, wat speelt er in die sector wat betreft AI?
Ja dat klopt. Enerzijds zien we dat bestaande software (veel) beter wordt door het gebruik van AI, anderzijds zien we dat nieuwe mogelijkheden opkomen door slimme toepassingen van AI. Denk daarbij aan het voorspellen. Je belt een bedrijf/organisatie en stelt een vraag. Hoe kun je het best met de combinatie van tijdstip, beller, zijn/haar geschiedenis, de gestelde vraag en beschikbare resources bij de organisatie omgaan om ervoor te zorgen dat de beller en de organisatie optimaal geholpen worden? Hierbij kan al 95% van de vragen juist worden afgehandeld. En veel sneller en goedkoper. Dit biedt bedrijven veel kansen.

Wat is de belangrijkste mind shift die de leasebranche volgens u zou moeten maken?
Ga experimenteren. Denk niet: dat zal mijn tijd wel duren want dan zijn de Amerikanen en Chinezen er al. Probeer al dan niet in samenspraak met slimme bedrijven, start-ups en universiteiten te experimenteren met wat mogelijk is en wat nu nog onmogelijk lijkt. Probeer de toekomst te voorspellen op basis van alle gegevens die je nu al hebt. Verzamel data, ook waarvan je nu het nut niet inziet, uiteraard binnen de grenzen van de privacy wetgeving. Leg vragen en processen vast, zodat je die straks kunt ontrafelen en op basis van de data betere beslissingen kunt nemen. Bijvoorbeeld het goedkeuren van lease-aanvragen; als je het goed organiseert kan een computer dat op basis van data beter en sneller dan een mens. Of voorspellen welke bedrijfsmiddelen onderhoud nodig hebben of welke klanten binnenkort de leasetermijnen niet meer kunnen betalen. Denk na over toepassingen voor jouw bedrijf. Maar doe iets!

Welk advies heeft u, tot slot, voor mensen die dit interview lezen?
Verdiep je er in, lees er over, probeer mee te doen en laat je bijpraten door mensen die er meer van weten.
Deze leestips zijn misschien een leuk begin:

  • https://medium.com
  • https://artplusmarketing.com/digital-processes-inspiring-analog-paintings-a358eb7801a0
  • http://notas.nl/artikelen/blogs/165-spraakherkenning-van-nederlandse-bodem

En deze kijktips zijn zeker zo boeiend:

  • Frank van Harmelen: Kan een computer straks jouw vragen perfect beantwoorden?
  • Eric Postma: Waarom ben jij intelligenter dan je computer?
  • Pim Haselaar: Waarom wij nog niet klaar zijn voor Robots

Smaakt dit naar meer?
Je hoort Arjan tijdens het NVL Jubileum event op 12 september.  Ben je werkzaam bij een van de leden van NVL, dan kun je je aanmelden voor het event: http://noq.caos.nl/forms/NVLjubileum/application/

Door Pascal van Hombergh, namens NVL Next

Pagina 1 van 9

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • Laatst gewijzigd: donderdag 14 mei 2026 08:59:03
  • Copyright @2026 Arjan van Hessen