null Beeld

Waarom slaan Google en Apple bepaalde gesprekken op en wie heeft toegang tot die gesprekken?

Grote techbedrijven luisteren met je mee, bleek deze zomer. Maar het kan niet anders als we intelligentere spraakassistenten willen.

laurens verhagen/niels waarlo

Waar zeg je eigenlijk 'ja' tegen, als je Google, Amazon of Apple toestemming geeft om op te nemen wat je zegt tegen hun spraakassistenten? De opnamen worden 'verwerkt' om de dienst te verbeteren, lees je. Nogal abstract. Over op de orde van de dag dus maar: 'Oké Google, wat is de weersverwachting?'

Deze zomer werd plots concreet wat 'verwerken' in dit geval inhoudt: medewerkers of inhuurkrachten luisteren mee om te horen of de assistent iets verkeerd verstaat. Het noopte Google deze week tot excuses en een verbeterplan, nadat Apple onlangs hetzelfde had gedaan. De opnamen van digitale assistenten kunnen behoorlijk vertrouwelijk zijn. Je roept ze aan via je telefoon of praatpaal om bijvoorbeeld het nieuws voor te lezen of de lampen in huis aan te knippen. Dat betekent dat ze vaak opnamen maken op intieme locaties, zoals de huiskamer.

Enkele medewerkers stapten naar de media en beschreven hoe ze luisterden naar stelletjes die seks hadden, naar ruzies of gesprekken tussen dokter en patiënt. Want hoewel de assistenten normaal gesproken pas opnemen nadat ze zijn aangeroepen, bijvoorbeeld met 'Hey Siri', springen ze soms per ongeluk aan. Sommige Nederlandstalige gesprekken met de Google Assistent bleken bovendien terug te voeren op individuen. Niet gek, als adressen worden genoemd.

Apple en Google kondigden veranderingen aan: je moet nu zelf aangeven dat je opnamen gebruikt mogen worden voor het verbeteren van de dienst, waarbij vermeld is dat een deel van de opnamen beluisterd zal worden (voor beide bedrijven is dat 0,2 procent). Ook zullen de bedrijven extra maatregelen nemen om de privacy beter te waarborgen. Volgens Nino Tosca, productmanager van Google Speech, zal Google voortaan opnamen met 'gevoelige informatie' eruit filteren.

Maar stoppen met meeluisteren doen de techbedrijven niet. Ze hebben simpelweg mensen nodig om hun spraakherkenningssoftware te verbeteren. Dat heeft te maken met de gebruikte techniek bij deze kunstmatige intelligentie: deep learning.

Wil je de computer Nederlands leren begrijpen, dan is een training nodig. Die begint met een grote dataset waaraan labels hangen. In het geval van spraakherkenning: deze klank is een 't', deze een 'k'. Dat labellen is mensenwerk. Uiteindelijk vertaalt de computer de klanken naar letters, woorden en zinnen.

Dan volgt stap twee: de daadwerkelijke interpretatie van de woordenreeks. Wat betekent 'hoe laat gaat de trein naar Antwerpen en hoe reageer je erop? Ook dat leert een computer door heel veel voorbeelden te verwerken, waardoor hij de verbanden tussen de woorden gaat ontdekken.

Bij beide stappen gaat in de praktijk weleens wat mis, zegt Jim Stolze, mede-oprichter van AI-consultant Aigency en initiatiefnemer van de Nationale AI Cursus. Dat leidt ertoe dat de spraakassistent vaak zegt: 'sorry, ik begrijp het niet'. Bij Siri gebeurt dat overigens vaker dan bij Google. Dit is precies waarom Google, Amazon en Apple zo tuk zijn op die gesprekken uit de huiskamer; om te kunnen leren waar het fout gaat.

Mensen mompelen, spreken met verschillende accenten of hebben ongebruikelijke zinsconstructies. Teksten waar de computer niks van begrijpt, snappen de medewerkers die meeluisteren wel. Zij zetten de opnamen af tegen de interpretatie van de spraakassistent en wijzen de fouten aan. Zo leert de computer weer bij. Daarom zijn de Google Assistent en Siri nu beter dan een jaar geleden.

Volgens Nino Tosca van Google Speech werkt Google aan methoden waarbij de mens niet meer nodig is voor deze training. Maar de huidige situatie is en blijft dat de digitale assistenten er zonder meeluisterende medewerkers veel minder van zouden bakken. Het is de prijs voor een goede reactie op de vraag of de verwarming op twintig graden kan, of waar hier in de buurt een supermarkt zit.

Het probleem ligt wat Jim Stolze betreft in de combinatie van 'de arrogantie van de techbedrijven en de naïviteit van de consument'. De bedrijven verstoppen cruciale zaken ergens ver weg in hun voorwaarden en denken dat de gemiddelde consument het dan wel snapt. De consument overschat op zijn beurt de mogelijkheden van machine learning.

Stolze «Iedereen denkt dat kunstmatige intelligentie pure magie is. Dat is niet zo. Alexa, Siri of Google Assistent zijn eigenlijk nog best knullig.

» Veel dialogen met spraakassistenten zijn nog altijd in hoge mate door programmeurs 'gescript'. Met andere woorden: de mens is nog altijd hard nodig voor verbetering van de computer. Zonder de labels die de mens aan plaatjes of klanken hangt, heeft de computer geen flauw idee wat hij moet doen.»

Ook Roel Dobbe, onderzoeker aan het AI Now Institute in New York, hekelt het gebrek aan heldere communicatie van techbedrijven.

Dobbe «Ik zie nu vooral een kolonialistische aanpak; techbedrijven verzamelen heel veel data en werpen de consument in ruil wat gratis diensten toe. Maar die consument heeft geen flauw idee wat de bedrijven precies verzamelen. Dat verstoppen ze in de kleine lettertjes. Niemand leest die onleesbare, ellenlange gebruiksvoorwaarden.»

De onderzoeker hoopt dat de uitleg die consumenten straks van Google en Apple krijgen een stuk concreter is dan nu: 'Leg nou eens goed en helder uit waarom bepaalde gesprekken worden opgeslagen en wie precies toegang tot die gesprekken heeft.'

© De Morgen

Meer over

Reageren op een artikel, uw mening ventileren of een verhelderend inzicht delen met de wereld

Ga naar Open Venster

Op alle artikelen, foto's en video's op humo.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar redactie@humo.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234