Impressie ICTU Café ‘AI, data en ethiek, hoe dan?’
Niet alles wat we kunnen en mogen doen met data is wenselijk. Maar hoe maken we daarin de juiste afweging? De wetenschap van de ethiek biedt hulp.
Tijdens het ICTU Café van 25 april met de titel “AI, data en ethiek, hoe dan?” werd de vraag beantwoord hoe ethiek kan helpen om waarden te waarborgen bij de inzet van AI en data.
Tom Moesker, programmamanager bij ICTU, schetste in zijn inleiding de snelle ontwikkelingen van AI. Na jaren waarin de technologie zich ontwikkelde, zijn er nu toepassingen die de wereld op zijn kop zetten, zoals ChatGPT. Moesker noemt de recente open brief van het gerenommeerde Future of Life Institute, dat oproept om grote AI-experimenten tijdelijk stop te zetten. “Als zelfs Elon Musk zich zorgen maakt, dan zou ik dat ook maar doen.”
Tegelijkertijd zijn dit soort ontwikkelingen niet tegen te houden, zegt hij ook. “Daarom zijn overheden wereldwijd bezig om te onderzoeken hoe ze dit kunnen reguleren. In de Europese Unie is de AI Act in voorbereiding, die een nieuw woord introduceert: het hoogrisicoalgoritme.”
Algoritmeregister
In Nederland wordt gewerkt aan inzicht en regulering van het gebruik van algoritmes, onder meer met het algoritmeregister. Moesker houdt zich als projectleider vanuit ICTU, in opdracht van het ministerie van BZK, bezig met de implementatie van dit register. “Het is een verzamelregister met algoritmes die overheden gebruiken. Je kunt er niet de broncode in vinden, maar wel informatie over een algoritme. Onze ambitie is om eind dit jaar 100 overheidsorganisaties aangesloten te hebben, met naar schatting zo’n 700 algoritmes.”
Toegepaste ethiek
Julia Straatman, onderzoeker data-ethiek aan de Data School van de Universiteit Utrecht, is gastspreker tijdens het ICTU Café en vertelt hoe ethiek kan helpen om afwegingen te maken bij het gebruiken van data en AI. Theorieën die door filosofen als Aristoteles werden bedacht, zijn nog steeds van toepassing: “We hebben het vaak over waardengedreven werken. Daarbij horen waarden als integriteit, eerlijkheid en transparantie. Het zijn belangrijke begrippen in de deugdethiek, een stroming die begon bij Aristoteles. Natuurlijk is de huidige context anders dan toen. Nu gaat het om hoe we technologie kunnen gebruiken om die waarden te borgen of in ieder geval niet te schaden. Maar de waarden zijn hetzelfde, die vinden wij als mensen nog steeds belangrijk. En technologie wordt door mensen gemaakt.”
Hoogrisicoalgoritmes verantwoord inzetten
“Ethiek wordt vaak gezien als iets abstracts, mensen denken dat ze er weinig mee te maken hebben. Maar ethiek is een vast onderdeel van alles wat je doet, het ligt aan de basis van bijna elke keuze die je maakt,” zegt Straatman. Ze hoopt eraan bij te dragen dat ethiek meer wordt ingezet bij het maken van afwegingen in het toepassen van technologie, zoals AI. Ze werkte mee aan de totstandkoming van IAMA, de Impact Assessment Mensenrechten en Algoritmes, en ondersteunt overheden bij het toepassen hiervan.
IAMA is in opdracht van het ministerie van BZK ontwikkeld en werd twee jaar geleden gepubliceerd. Het doel van het vrij te downloaden document is dat organisaties hoogrisicoalgoritmes verantwoord inzetten. Straatman: “Er is op dit moment geen eenduidige definitie van een hoogrisicoalgoritme, organisaties moeten zelf inschatten of ze hiermee te maken hebben.” Als voorbeeld noemt ze algoritmes die gebruikt worden voor het voorspellen van fraude; het gaat om algoritmes op basis waarvan beslissingen worden genomen die een ingrijpende invloed hebben op de levens van mensen.
Multidisciplinair team is een voorwaarde
Met IAMA onderzoeken organisaties de impact van een algoritme dat ze willen inzetten. Het is belangrijk dat een multidisciplinair team met het instrument aan de slag gaat, een team met onder meer juristen, domeinexperts en communicatiedeskundigen. “Zij vullen elkaar aan, zo maak je de kans op blinde vlekken zo klein mogelijk.” Het instrument begeleidt het team bij het maken van keuzes rond de inzet van algoritmes. Omdat het gehele beslissingsproces wordt vastgelegd, IAMA is een interactief document, heb je na afsluiting van het assessment documentatie om intern en extern verantwoording af te leggen over de gemaakte keuzes.
De omvang van het document kan organisaties afschrikken, vertelt Straatman: het telt zo’n negentig pagina’s. Maar, nuanceert ze: “Een groot deel daarvan is handleiding. We geven per vraag een toelichting, zodat het assessment zo zelfstandig mogelijk gedaan kan worden.” Het document is gratis te downloaden, de Universiteit Utrecht kan op verzoek het invullen begeleiden. “We hebben nu zeven keer een assessment met een overheidsorganisatie afgerond. De praktijk wijst uit dat het doen van het assessment in totaal vijf uur kost, verdeeld over een aantal sessies.”
Verplichte mensenrechtentoets
De Tweede Kamer nam een jaar geleden een motie aan die toepassing van IAMA verplicht stelt voor overheden. Die motie is nog niet concreet vertaald in wetgeving, omdat de Nederlandse overheid wil wachten wat er straks verplicht wordt vanuit de Europese AI Act. Naar verwachting wordt hier een mensenrechtentoets in opgenomen. Collega’s van Straatman gaven in het Europees Parlement een toelichting op IAMA, dat inmiddels in het Engels is vertaald. Wellicht dat dit impact assessment een van de toegelaten methodes wordt om straks de voor hoogrisicoalgoritmes verplichte mensenrechtentoets te doen.