Page 16 - OnzeTaal_nov2019_HR
P. 16
van mensen wordt dan niet gerespecteerd. Wie met een DUBIEUZE PRAAT
mens praat, mag verwachten dat de ander begrijpt dat Er is een manier om een chatbot wat ‘slimmer’ en
niet alles zomaar aan derden kan worden doorverteld. ‘natuurlijker’ te laten praten. Je geeft hem een enorme
Wie met een chatbot praat, kan daar helaas niet van verzameling van gesprekken die ooit daadwerkelijk
uitgaan. door mensen zijn gevoerd. Daarin kan hij dan – pijlsnel!
– zoeken naar iets wat lijkt op wat hij net heeft horen
LANGERE GESPREKJES zeggen. Vervolgens neemt hij het antwoord over dat
Siri kan ook een wat langer gesprekje voeren, waarin hij toen gegeven werd.
zinnen gebruikt die terugverwijzen naar eerdere zinnen Dat is een techniek waar nu hard aan gewerkt wordt.
in het gesprek: Een van de problemen daarbij is dat lang niet alle mo-
gelijke zinnen letterlijk in zo’n database te vinden zijn.
Ik: Hoe warm wordt het vandaag in Utrecht?
Siri: Twintig graden.
Ik: Hoe weet je dat?
Siri: Dat heb ik van de Weather Channel. Een chatbot zegt nooit:
‘Ja, dat heb je gisteren
Siri begrijpt blijkbaar dat “dat” terugverwijst naar zijn
eerste antwoord (“Twintig graden”). Als mens sta je er
niet bij stil dat dat heel erg knap is van zo’n computer- ook al gevraagd.’
programma. Maar die langere gesprekjes gaan ook al
snel de mist in: De chatbot moet dus op zoek naar iets wat er heel erg
ONZE TAAL 2019 — 11 Siri: Oké, kijk hier eens naar … (Toont een lijstje met op lijkt. Maar wanneer lijkt iets heel erg op iets? Een
Ik: Weet je een leuk restaurantje in Tongeren?
ander probleem is dat de chatbot hier sterk afhankelijk
restaurants.)
wordt van de kwaliteit van die data. Het gevaar bestaat
Ik: Welke is de beste?
dat er in die data dingen zitten die je de chatbot eigen-
Siri: Ik kan geen keuze maken.
lijk niet zou willen leren.
Ik: Waarom niet?
Siri: Waarom niet wat?
Dat ging een paar jaar geleden mis bij de chatbot Tay,
Twitter. Tay twitterde er vrolijk op los, hij baseerde zich
Het gesprek krijgt opeens, ongetwijfeld onbedoeld, een die gemaakt was door Microsoft en werd losgelaten op
nare ondertoon: “Waarom niet wat?” klinkt behoorlijk daarbij op hoe er door anderen getwitterd werd. Omdat
16 onvriendelijk. er veel dubieuze praat op Twitter staat, ontpopte Tay