Page 16 - OnzeTaal_nov2019_HR
P. 16

van mensen wordt dan niet gerespecteerd. Wie met een   DUBIEUZE PRAAT
            mens praat, mag verwachten dat de ander begrijpt dat   Er is een manier om een chatbot wat ‘slimmer’ en
            niet alles zomaar aan derden kan worden doorverteld.   ‘natuurlijker’ te laten praten. Je geeft hem een enorme
            Wie met een chatbot praat, kan daar helaas niet van   verzameling van gesprekken die ooit daadwerkelijk
            uitgaan.                                         door mensen zijn gevoerd. Daarin kan hij dan – pijlsnel!
                                                             – zoeken naar iets wat lijkt op wat hij net heeft horen
            LANGERE GESPREKJES                               zeggen. Vervolgens neemt hij het antwoord over dat
            Siri kan ook een wat langer gesprekje voeren, waarin hij   toen gegeven werd.
            zinnen gebruikt die terugverwijzen naar eerdere zinnen      Dat is een techniek waar nu hard aan gewerkt wordt.
            in het gesprek:                                  Een van de problemen daarbij is dat lang niet alle mo-
                                                             gelijke zinnen letterlijk in zo’n database te vinden zijn.
               Ik: Hoe warm wordt het vandaag in Utrecht?
               Siri: Twintig graden.
               Ik: Hoe weet je dat?
               Siri: Dat heb ik van de Weather Channel.        Een chatbot zegt nooit:
                                                               ‘Ja, dat heb je gisteren
            Siri begrijpt blijkbaar dat “dat” terugverwijst naar zijn
            eerste antwoord (“Twintig graden”). Als mens sta je er
            niet bij stil dat dat heel erg knap is van zo’n computer-  ook al gevraagd.’
            programma. Maar die langere gesprekjes gaan ook al
            snel de mist in:                                 De chatbot moet dus op zoek naar iets wat er heel erg
      ONZE TAAL 2019  —  11  Siri: Oké, kijk hier eens naar … (Toont een lijstje met   op lijkt. Maar wanneer lijkt iets heel erg op iets? Een
               Ik: Weet je een leuk restaurantje in Tongeren?

                                                             ander probleem is dat de chatbot hier sterk afhankelijk
               restaurants.)
                                                             wordt van de kwaliteit van die data. Het gevaar bestaat
               Ik: Welke is de beste?
                                                             dat er in die data dingen zitten die je de chatbot eigen-
               Siri: Ik kan geen keuze maken.
                                                             lijk niet zou willen leren.
               Ik: Waarom niet?
               Siri: Waarom niet wat?
                                                               Dat ging een paar jaar geleden mis bij de chatbot Tay,
                                                             Twitter. Tay twitterde er vrolijk op los, hij baseerde zich
            Het gesprek krijgt opeens, ongetwijfeld onbedoeld, een     die gemaakt was door Microsoft en werd losgelaten op
            nare ondertoon: “Waarom niet wat?” klinkt behoorlijk   daarbij op hoe er door anderen getwitterd werd. Omdat
    16      onvriendelijk.                                   er veel dubieuze praat op Twitter staat, ontpopte Tay
   11   12   13   14   15   16   17   18   19   20   21