Overslaan en naar de inhoud gaan

Sander Klous over data-analyse en algoritmen

Publicatie 13 sep 2017

‘Fake news leert dat we moeten oppassen’

Binnen tien jaar zijn algoritmen zo goed geworden dat we niet meer merken hoe ze ons gedrag beïnvloeden. Hoog tijd voor de overheid om goede afspraken over de inzet ervan te maken, vindt Sander Klous.

Sander Klous is hoogleraar Big Data Ecosystems aan de Universiteit van Amsterdam en auteur van onder andere 'Wij zijn Big Data'. Hij is een van de sprekers tijdens de ICTU-Inspiratiedag op 27 september a.s.

In zijn presentaties laat hij vaak het miljoenen keer bekeken filmpje zien van een peuter die al swipend en scrollend een papieren magazine probeert te openen. ‘Het filmpje illustreert hoe we in tien, vijftien jaar tijd in een totaal andere wereld terecht zijn gekomen. We stellen tegenwoordig enorm hoge eisen aan de dingen om ons heen. Als een app op mijn telefoon niet opstart, verwijder ik die meteen. Vijftien jaar geleden vonden we het normaal dat onze pc regelmatig een kwartier op blauw ging omdat Windows 95 weer eens was gecrasht.’

Kun je zeggen dat ons gedrag steeds meer wordt bepaald door de systemen om ons heen?
'Ja, of liever: door de algoritmen die in die systemen zijn verwerkt. Als ik de metro wil nemen, moet ik door een poortje dat alleen opengaat als het algoritme uitwijst dat ik een geldige ov-chipcard heb. Vijftien jaar geleden had ik nog de keuze: eerst een strippenkaart afstempelen of gewoon instappen. Wat ik daarmee wil zeggen is dat algoritmen de rol van wetgeving hebben overgenomen. Ze gaan zelfs veel verder, ook als ze niet dwingend zijn. Ze zorgen ervoor dat we slaafs instructies opvolgen en een sloot inrijden omdat het navigatiesysteem zegt dat we rechtsaf moeten. Evgeni Morozov heeft het in zijn boek The Net Delusion over ‘onzichtbaar prikkeldraad’ dat onze vrijheid beperkt. Toen ik die term voor het eerst las, vond ik hem wat zwaar aangezet. Maar nu, ten tijde van fake news en de mogelijke beïnvloeding van verkiezingen, kijk ik daar toch wat anders tegenaan.’

Dat klinkt somber.
'Nou, er klopt één ding niet aan het verhaal van Morozov en dat zit hem in de term ‘onzichtbaar’. Nu hebben we meestal nog door dat algoritmen ons gedrag proberen te sturen, omdat ze nog niet goed genoeg zijn. Je komt bijvoorbeeld net terug van vakantie en ziet in iedere Google-advertentie jouw vakantieappartement aangeboden worden voor de helft van de prijs die jij ervoor hebt betaald. Dat irriteert, terwijl de adverteerder dat juist wil voorkomen. Maar geef data scientists tien jaar en dan hebben we echt onzichtbaar prikkeldraad dat ons leven nog veel meer beïnvloedt dan nu. Dit betekent dat we nog maar weinig tijd hebben om als samenleving de randvoorwaarden voor data-analyse te bepalen. En daar ligt een schone taak voor de overheid, als regulator én gebruiker van data-analyse.’

Heeft de overheid hier genoeg aandacht voor?
'Er zijn allerlei werkgroepen mee bezig. Maar het is een mega-uitdaging, omdat we niet goed weten hoe de slimme samenleving zich verder ontwikkelt, terwijl we vooruitlopend daarop al een regelgevend raamwerk moeten maken. Ik vind wel dat er een stapje bij moet. Vorig jaar kwam de Belastingdienst in het nieuws omdat extern personeel toegang had tot vertrouwelijke gegevens van burgers zonder dat er passende controlemaatregelen waren genomen. Het zou goed zijn als we dit incident aangrijpen voor een experiment waarin je samen met Belastingdienst, toezichthouder en een of meer controlerende partijen van de Big Four bekijkt hoe je een effectief en schaalbaar controleraamwerk kunt ontwikkelen. Ik verwacht dat over tien jaar de controle op data-analyses een industrie is geworden en dit is een prachtige casestudie om te zien wat werkt.’

Klous publiceert regelmatig artikelen. Zo schreef hij onlangs in het FD het artikel 'Onafhankelijk toezicht nodig op het toepassen van data in systemen'.

Wat zie jij als dé uitdaging voor de overheid?
'Het stellen van veilige grenzen zonder dat die nodeloos belemmerend werken. Bijvoorbeeld rond de ethische componenten. Vroeger hadden we het ziekenfonds: wie ziek werd, kreeg geld uit de pot om zijn ziekenhuisrekeningen mee te betalen. Dat noemden we solidariteit, maar het was gewoon risicodeling. Tegenwoordig weten we dankzij data-analyses zoveel van mensen dat we claims beter kunnen voorspellen. Het is zelfs mogelijk om te voorspellen dat ik een twee keer zo grote kans heb om ziek te worden dan jij. Stel dat systemen weten dat ik elke dag twee pakjes Caballero inhaleer, dan vraag ik me af of jij nog wel bereid bent evenveel premie te betalen. Obama gebruikte ooit het voorbeeld van een zelfrijdende auto die moet kiezen: of de kleuter doodrijden die ineens voor de auto springt, of de president van de Verenigde Staten. Het algoritme dat in de auto is ingebouwd, moet dus een ethische afweging kunnen maken. En wie is verantwoordelijk voor die beslissing? De programmeur van het algoritme? De autofabrikant?'

Wat wil je de lezer van dit artikel meegeven?
'Dat algoritmen voor gigantische veranderingen in onze samenleving zorgen. Fake news leert ons dat we moeten oppassen. We hebben nu nog tijd om daar samen goede afspraken over te maken en die ook te gaan handhaven.’

In november 2017 verschijnt een nieuw boek van Sander Klous dat hij samen met Nart Wielaard heeft geschreven: 'Vertrouwen in de slimme samenleving'.

Meer informatie

EenVandaag geeft in haar uitzending van 14 augustus 2017 aandacht aan 'De Voorspelbare Mens en de vraag 'Wat is een algoritme?'. Sander Klous in deze uitzending: 'Hoe kan het dat algoritmen nauwelijks een politiek issue zijn? Zouden we niet meer moeten willen weten over een onderwerp dat onze maatschappij in een toenemende mate vormt,' vraagt hoogleraar Big Data Sander Klous zich af. 'We staan echt op een kantelpunt. Als we nu niet snel regels gaan maken krijgen we software die over jou gaat oordelen, zonder dat je weet dat die dat doet, en vooral hoé die dat doet.'

Meer informatie over de bijeenkomst van ICTU op 27 september.

Reactie toevoegen

Laat een reactie achter