Geef mij uw gegevens en ik zeg u wie u bent? De computer heeft het niet altijd bij het rechte eind

Onze gegevens zijn goud waard. Supermarktketens, toekomstige werkgevers, de medische wetenschap en de politie: iedereen lijkt mensen in cijfers en tabellen te willen gieten. Maar blind vertrouwen op big data kan gevaarlijke gevolgen hebben, zegt BBC-journaliste Timandra Harkness: ‘Door al die waardering voor het meetbare dreigen we te vergeten wat écht belangrijk is.’

'Mensen bestáán niet uit enen en nullen'

Big data is een beetje als big brother: men weet waar je bent, wie je vrienden zijn, hoe gezond je bent. Men kan voorspellen wat je zult kopen, wanneer je ziek zult worden en of je het slachtoffer van criminaliteit zult worden – of een crimineel. Geef mij uw data en ik zeg u wie u bent: dat is de belofte van de enorme datasets die ons leven steeds meer bepalen. Big data zou zowel Clinton als Trump hebben geholpen om nauwkeurig te bepalen waar ze campagne moesten voeren. Energieleveranciers zouden big data kunnen aanwenden om de opbrengst van windmolens op zee met 20 procent te verhogen. Stadsplanners in Parijs zetten big data in om de uitstoot van schadelijke gassen terug te dringen. De topman van farmareus Novartis voorziet dat big data patiënten zal helpen gezond te worden of blijven.

Jarenlang las Timandra Harkness, BBC-journaliste en comédienne met een voorliefde voor wiskunde, de jubelberichten in de krant. Ze raakte steeds meer gefascineerd door big data: niet zozeer door de schier oneindige mogelijkheden waar iedereen het altijd over heeft, maar door de beperkingen. Ze schreef er een boek over, ‘Big Data: Does Size Matter?’, waarin ze uitlegt waarom we niet te veel moeten vertrouwen op die cijfermatige benadering van het leven.

HUMO Eerst en vooral: wat is big data eigenlijk?

Timandra Harkness «Het gaat om gigantische hoeveelheden data die aan elkaar worden gekoppeld. Op basis daarvan kunnen supermarkten bijvoorbeeld voorspellen in welk weekend iedereen opeens aan het barbecueën slaat. Het vergaren van al die data verloopt doorlopend en automatisch – bijvoorbeeld als we aankopen doen of op basis van de locatie van onze telefoon – waardoor dat proces voor ons onzichtbaar is. En de verwerking is vaak gebaseerd op kunstmatige intelligentie: het gaat om lerende computers. Een voorbeeld: je geeft een computer een stapel van duizend hersenscans van mensen die later in hun leven alzheimer ontwikkelden en een stapel van duizend hersenscans van mensen die gezond zijn gebleven. Daarna schotel je hem nieuwe hersenscans voor. De computer kan dan, afgaand op de aangeleerde informatie, aangeven waar een arts extra op moet letten.»

HUMO Klinkt heel nuttig.

Harkness «Ja, er zijn geweldige mogelijkheden. Big data is cruciaal voor wetenschappelijk onderzoek – zonder zou het higgsdeeltje nooit zijn gevonden.»

HUMO Máár...?

Harkness «Het verraderlijke is dat je alleen meet wat je kúnt meten, en dus wordt alleen dát belangrijk. Van het Engelse ontbijt dat ik nu op mijn bord heb liggen – gebakken ei, worst, bonen – kun je allerlei dingen meten: van de calorieën tot de mate waarin het vlees mijn kans op een bepaalde vorm van kanker verhoogt. Dat is vast interessant, maar data zullen je niet vertellen dat dit ontbijt mij aan mijn jeugd herinnert, dat ik het fijn vind dat iemand in het hotel dit ontbijt voor me heeft klaargemaakt en dat ik straks niet hoef af te wassen. Big data wekt de suggestie een compleet beeld van ons leven te schetsen, maar er zijn nu eenmaal zaken die niet in cijfers zijn uit te drukken. Sterker, big data kan niets met het belangrijkste in ons leven.»

'Timandra Harkness: 'Zoals een dronkaard zijn sleutels onder de lantaarnpaal zoekt omdat het daar licht is, zo staren wij ons blind op data.'

HUMO Maar de voorstanders van big data suggereren toch niet dat ze onze hele persoonlijkheid in beeld brengen?

Harkness «Misschien niet, maar door al die waardering voor wat meetbaar is, dreigen we te vergeten wat écht belangrijk en interessant is. Zoals een dronkaard zijn kwijtgeraakte sleutels onder de lantaarnpaal zoekt omdat het daar licht is, zo staren wij ons blind op data. Terwijl ons ‘ik’ niet uit enen en nullen bestaat: je kúnt je ‘ik’ niet in een databank opslaan.

»Op den duur gaan we mensen niet meer zien als individuen, maar als wandelende databanken die het gemiddelde moeten benaderen van de groep waartoe ze behoren. Terwijl we allemaal eigen keuzes kunnen maken, uniek zijn.»


Verdacht profiel

HUMO Welk gevaar ziet u?

Harkness «Omdat big data per definitie is gebaseerd op het verleden, krijgen we een bevestiging van stereotypen. Data hebben altijd betrekking op wat eerder is gebeurd, op de meest waarschijnlijke uitkomst en op het gemiddelde van groepen vergelijkbare mensen. Ze laten niet zien waartoe iemand in staat is of wat er in de toekomst mogelijk is.»

HUMO Wanneer is dat dan een probleem?

Harkness «Bij sollicitaties, bijvoorbeeld. Steeds meer bedrijven laten sollicitanten analyseren door een algoritme, op basis van hun cv uiteraard, maar er wordt ook gekeken naar publiek beschikbare informatie, zoals hun postcode en hun profiel op sociale media. Dus als je in een wijk woont waar de buurtbewoners vaker dan gemiddeld werkloos, laagopgeleid en ziek zijn, of als een vriend je op Facebook heeft getagd in een foto van een feestje waarop je te veel hebt gedronken, wordt je kans op werk kleiner.»

HUMO Data zijn toch neutraal en objectief?

Harkness «In de praktijk is dat niet het geval. Dat is ook logisch. Als een computer zichzelf zo slim heeft gemaakt door te kijken naar gegevens uit het verleden, hoeft het niemand te verbazen dat het algoritme alle bestaande vooroordelen zal weerspiegelen. We zien dat bijvoorbeeld wanneer big data wordt ingezet bij de aanpak van criminaliteit.»

HUMO Gebruiken politieagenten en rechters big data?

Harkness «Ja, steeds vaker. Het idee erachter is lovenswaardig: in de Verenigde Staten kwam het besef dat te veel mensen de cel ingingen, onder wie onevenredig veel zwarten. De Amerikaanse politie gebruikt nu software om te voorspellen waar het vaakst criminaliteit voorkomt, of om mensen in de gaten te houden die weleens tot misdaad zouden kunnen neigen. Rechters worden ondersteund door de risicobeoordeling van algoritmes. Dat is bedoeld om hun eigen vooringenomenheid in te dammen, maar het kan tot heel onrechtvaardige situaties leiden.»

HUMO Zoals?

Harkness «Neem de 19-jarige man uit Virginia die werd veroordeeld omdat hij seks had gehad met een meisje van 14 jaar. Er was sprake van wederzijdse instemming, maar aangezien zij minderjarig was, deed hij iets wat niet mag van de wet. De computer oordeelde dat de man een hoog risico had om te recidiveren en hij kreeg een gevangenisstraf van anderhalf jaar. Hij is dus schuldig bevonden op basis van factoren waarop hij geen directe invloed heeft, zoals zijn leeftijd, zijn onderwijsniveau, de achtergrond van zijn familie en zijn professionele status. Als je in die verzameling data iets veranderde – hem 36 jaar oud maken, bijvoorbeeld – kreeg je een ander resultaat en had hij niet naar de cel gehoeven. Hoe kan dat nu rechtvaardig zijn?»

HUMO De computer geeft alleen advies, hij neemt geen beslissingen.

Harkness «Klopt. Maar je moet wel sterk in je schoenen staan om de risicobeoordeling van de computer te negeren. Stel je voor dat je iemand vrijlaat die later toch schuldig blijkt te zijn.»


Domme ik

HUMO Wat kunnen we eraan doen?

Harkness «Het is belangrijk dat we toegang krijgen tot de data en de algoritmen die aan steeds meer beslissingen ten grondslag liggen. Dat is zelfs essentieel wanneer het gaat over een rechtszaak of over je gezondheid.»

HUMO Dat spreekt toch voor zich?

Harkness «Niet bepaald. Voor beklaagden is het onmogelijk geworden om in beroep te gaan wanneer de data op basis waarvan een risicobeoordeling is gemaakt, eigendom zijn van een bedrijf dat weigert om inzage te geven. Dat is schandalig. Een rechter kun je ter verantwoording roepen en vragen waarom hij tot een bepaalde uitspraak is gekomen; een algoritme daarentegen is niemand verantwoording verschuldigd. En volgens mij verklaart dat net de populariteit van big data: we hebben niet genoeg vertrouwen om zélf keuzes te maken en oordelen te vellen.»

HUMO Hoe bedoelt u?

Harkness «We vertrouwen erop dat die slimme machines met al die miljoenen datapunten en honderden variabelen ons zullen helpen om patronen te vinden die wijzelf nooit kunnen vinden. Dat voedt de suggestie dat de computer vele malen slimmer en wijzer is dan wij en dat we de data voor zich kunnen laten spreken over wat het beste is voor ons. Wie zijn wij immers om die onmetelijke intelligentie te betwisten? We vertrouwen onszelf niet meer. Dat begint al bij het ontbijt. Eet ik wel gezond genoeg? Maak ik de aarde niet kapot als ik dit worstje eet? We weten het niet. Experts vertrouwen we ook al niet meer: we vinden hen niet langer onpartijdig en betwijfelen of ze nog wel onze belangen dienen.»

HUMO Dus wijken we uit naar de autoriteit van computers?

Harkness «Precies. We lijken te denken: nou, dat is hogere wiskunde, ingewikkeld en duur, dus het moet wel nauwkeurig zijn. Maar eigenlijk is big data vooral een excuus om niet langer verantwoording te hoeven afleggen. En ik vind het uiterst gevaarlijk wanneer mensen hun verantwoordelijkheid ontlopen om een keuze te maken.»

HUMO Wat is daar zo gevaarlijk aan?

Harkness «Big data kan alleen kwantificeren en niet kwalificeren. Alle informatie die eruit komt, verdient een menselijk oordeel. Data kunnen je wel vertellen hoeveel calorieën je ontbijt telt, of misschien zelfs welk ontbijt het best is voor de optimale gezondheid van de gemiddelde persoon in jouw groep, maar jíj zult toch moeten bepalen wat je zult eten. Ik vind het veelzeggend dat we zonder al te veel moeite blind op technologie vertrouwen, maar niet op mensen.»



Timandra Harkness,

‘Big Data: Does Size Matter?’,

Bloomsbury Sigma

Meer over

Reageren op een artikel, uw mening ventileren of een verhelderend inzicht delen met de wereld

Ga naar Open Venster

Op alle artikelen, foto's en video's op humo.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar redactie@humo.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234