Page 15 - OnzeTaal_april2021_HR
P. 15

tive Pre-trained Transformer 3’) schrijft op verzoek ver-  wordt immers niet meer regel voor regel geschreven; hij
            halen, essays, handleidingen en zelfs liedjes, bladmu-  ontstaat in een soort evolutie. Eventuele gebreken zijn
            ziek en software. Zoals verschillende betrokkenen en   niet zomaar te vinden in de programmacode. Soms zijn
            ook journalisten hebben vastgesteld, zitten er echt wel   ze terug te voeren op de verzameling data waarmee het
            flaters tussen (zie bijvoorbeeld de rubriek ‘Taaltoestan-  trainen heeft plaatsgevonden. Zo blijken systemen voor
            den’ in het decembernummer van Onze Taal). Maar veel   gezichtsherkenning slecht te werken op personen van
            is zó goed dat de organisatie die het systeem heeft ont-  kleur wanneer de training per ongeluk is uitgevoerd met
            wikkeld, OpenAI, besloten heeft om tegen haar princi-  uitsluitend foto’s van mensen met een blanke huids-
            pes de programmacode van GPT-3 niet te publiceren, uit   kleur. In China heeft het omgekeerde probleem zich
            angst voor misbruik. Je zou kunnen zeggen dat GPT-3 te   voorgedaan: vooral Chinezen werden daar goed herkend.
            vergelijken is met de schaakcomputer van toen die het      Machineleren maakt het mogelijk stemmen en ge-
            niveau van clubschaker had bereikt: presteert verdien-  zichten te herkennen, maar net zo goed om ze te imite-
            stelijk tot goed maar is te wisselvallig voor de top. (Zie   ren. En de hoeveelheid data die nodig is om een systeem
            ook het kader op de volgende bladzijde.)         te trainen om de stem van een bepaald persoon na te
                                                             doen, neemt razendsnel af. Het is allang niet meer nodig
            DE KAPPER BELLEN                                 ellenlange opnamesessies te beleggen waaraan de bezit-
            Ook de pratende computer heeft een zodanig niveau    ter van een stem bewust meewerkt, zoals Philip Bloe-
            bereikt dat er misverstanden dreigen. Nog altijd zetten   mendal deed. Een softwarebedrijf genaamd Lyrebird was
            we een raar stemmetje op als we een sprekende compu-  in 2017 in staat om een stem te ‘kapen’ op grond van
            ter of robot willen imiteren. In de werkelijkheid van de   een audiofragment van zegge en schrijve een minuut.
            eenentwintigste eeuw is het onderscheid allang moeilijk
            hoorbaar geworden. Smartphones en apparaten die
            ‘smart speakers’ of ‘digitale assistenten’ worden ge-  Obama lijkt in een video te
            noemd, spreken hun eigenaar toe met een redelijk over-
            tuigend klinkende kunstmatige stem. Digitale telefonis-  zeggen: “President Trump is
            ten, die bijvoorbeeld een bestelling opnemen, kunnen
            inmiddels zó realistisch klinken – ze nemen zelfs denk-  a total and complete dipshit.”
            pauzes die ze vullen met eh – dat niemand het verschil
            meer hoort. In 2018 demonstreerde Google een systeem,
            genaamd Duplex, dat zelfs in staat was voor zijn eige-  De software van Lyrebird kan niet alleen zomaar iets na-
            naar de kapper te bellen om een afspraak te maken.   zeggen, maar kan alles zeggen wat een gebruiker intypt,
            Daarop volgden bezorgde geluiden: was het ethisch om   met de stem van degene uit het fragment. Een recenter,
            de kapper niet te laten weten dat hij een robot aan de   concurrerend systeem uit 2019 levert prima resultaten
            lijn had? Google loste dat op door de robot dit voortaan   op basis van een voorbeeldfragment van vijf seconden.
            zelf te laten vertellen.                         Zoveel is van bijna iedereen wel te bemachtigen, des-
               Het is één ding om een computer te laten klinken als   noods stiekem.
            ‘een mens’, het is heel iets anders om hem te laten klin-
            ken als een bepááld persoon. Nu was er op dit gebied   FAKENIEUWS
            langgeleden al het nodige mogelijk; in de jaren tachtig   En daar blijft het niet bij: ook beelden zijn niet veilig.
            van de vorige eeuw werden grote vorderingen gemaakt.   Met als grondstof weinig meer dan een foto kan een vol-
            In plaats van spraak te synthetiseren door het geluid van   komen synthetische video worden gemaakt waarin een
            losse letters achter elkaar te zetten, wat uiterst mecha-  bestaand persoon iets zegt wat hij of zij nooit echt heeft
            nisch klonk, kwam men op het idee uit te gaan van zo-   gezegd. Op internet circuleren voorbeelden met als
            genoemde difonen: de overgangsgebieden tussen twee   hoofdpersonen bijvoorbeeld de ex-presidenten Obama
            letters. In combinaties als eet, eer en eel beïnvloeden de   en Trump. Obama zegt dan in een haarscherpe video:
            klinker en de medeklinker elkaar; de ee klinkt telkens   “President Trump is a total and complete dipshit. Now,
            anders. Onderzoekers namen dus kort door de bocht    you see, I would never say these things. At least not in a
            gezegd van een bepaalde spreker spraak op waar alle 26   public address …” ‘Deepfake’ heet deze dubieuze kunst-
            maal 26 lettercombinaties in voorkwamen, en konden   vorm, die buitengewoon slecht van pas komt in een tijd-
            deze spreker vervolgens alles laten zeggen wat getypt   perk dat toch al wordt geteisterd door fakenieuws. Het
            kon worden. Philip Bloemendal (tussen 1946 en 1986 de   wordt met het jaar moeilijker nepvideo’s te onderschei-
            vermaarde stem van het Polygoon-bioscoopjournaal)   den van echte.
            verleende zijn welwillende medewerking aan een project      Dit roept de vraag op wat voor gevolgen dit heeft voor
            van het Instituut voor Perceptie Onderzoek in Eindho-  de manier waarop we omgaan met van internet verkre-
            ven. De gerobotiseerde Bloemendal klonk, zeker voor    gen informatie. Wat kunnen we nog geloven? Trendwat-
            die tijd, verbluffend goed.                      cher Jarno Duursma behandelde in 2020 het fenomeen
                                                             van deepfakes in een rapport en noemde als gevaren
            STEM KAPEN                                       manipulatie van meningen, het toebrengen van reputa-
            Ruim dertig jaar later vermag de techniek veel meer.   tieschade en chantage.
            ‘Machine learning’ laat computers vaardigheden leren
            door het ‘belonen’ van lukrake pogingen, bijvoorbeeld   CAMERASTANDPUNTEN
            het herkennen van iemands stem. Goed geraden? Posi-  Ongetwijfeld zijn deepfakes inderdaad gevaarlijk. Maar   ONZE TAAL 2021  —  4
            tieve feedback aan het systeem: die kant moet het op.   we moeten niet doen alsof ze het eerste vehikel van leu-
            En maar weer opnieuw proberen. Zo leert de computer   gen en bedrog zijn dat de mensheid tegenkomt. We ken-
            stapje voor stapje tot een goed resultaat te komen. Ook   nen de uitdrukking liegen of het gedrukt staat. We weten
            gezichten herkennen kan zo worden geleerd.       dat een tekst die in druk of op internet is verschenen
               Deze manier om software te ontwikkelen heeft de   niet per se waar is. Compleet verzonnen nieuwsberich-
            wonderlijke bijwerking dat niemand meer weet hoe het   ten hebben verkiezingen beïnvloed, zoals dat over paus
            eindproduct werkt – alleen dát het werkt. De software   Franciscus die de presidentskandidatuur van Donald     15
   10   11   12   13   14   15   16   17   18   19   20