Carmen Mazijn and Vincent Ginis published this article in De Tijd.
Artificiële algoritmen worden almaar vaker gebruikt om moeilijke beslissingen te nemen. Hun ondoorzichtige werking mag geen vrijgeleide zijn om complexe maatschappelijke vraagstukken onder de mat te vegen.
AI4Belgium en partners organiseren vandaag in het kader van de Europese AI Week verschillende seminaries en workshops waar onderzoekers, ethici, ondernemers en beleidsmakers de mogelijkheden en beperkingen van AI onder de loep nemen. Laat ons die focus gebruiken en vooral de moeilijke vragen niet uit de weg gaan: veel algoritmen worden uitgerold om heel ingewikkelde discussies te vermijden.
De essentie
- De auteurs: Carmen Mazijn is onderzoekster data science en artificiële intelligentie aan de VUB. Vincent Ginis is professor wiskunde, natuurkunde en artificiële intelligentie aan de VUB en Harvard University. Beiden zijn ook verbonden aan het AI for the common good institute, FARI.
- De kwestie: We laten computers te gemakkelijk voor ons beslissen door algoritmen.
- Het voorstel: Er is meer transparantie nodig om te weten hoe algoritmen werken en waarvoor ze dienen.
Artificiële algoritmen bepalen almaar ingrijpender uw leven. Ze modelleren uw data om voorspellingen te maken over verschillende aspecten van uw bestaan en doen dat erg efficiënt. Door uw gegevens op grote schaal te verzamelen en te vergelijken met anderen worden ze ook gebruikt om aanbevelingen te maken die een invloed hebben op wat u kan en mag. Dat gebeurt bij bijna banale keuzes tot levensbepalende beslissingen. Zo beslissen ze steeds vaker wie een bepaalde advertentie of korting wordt aangeboden, wie een lening of verzekering krijgt, wie op gesprek wordt uitgenodigd bij een sollicitatie, wie toegang krijgt tot een bepaalde school en, in de extreemste gevallen, zelfs wie voorwaardelijk vrijgelaten wordt.
Automatisering en standaardisering
Twee elementen worden typisch aangehaald om te verantwoorden dat u almaar vaker door een computer wordt beoordeeld en niet door een mens: automatisering en standaardisering.
Ten eerste probeert men met behulp van automatisering honderden beslissingen met een paar muisklikken af te handelen. Het algoritme maakt vlot een eerste schifting. De mens komt pas in de tweede ronde aan bod en kan een kleinere hoeveelheid data overzien. Ten tweede wordt beargumenteerd dat standaardisering door middel van algoritmen ook leidt tot een gelijkere behandeling. Mensen hebben vooroordelen en kunnen daardoor andere mensen niet eerlijk behandelen. Een algoritme kan hier de oplossing bieden.
“Het is eenvoudiger om een beslissing te verstoppen achter de ondoorzichtigheid van een algoritme dan uit te leggen waarom die beslissing werd genomen.”
Beide argumenten hebben hun waarde, maar kennen ook een keerzijde. Neem het argument van de efficiëntie door middel van automatisering. De mensen die door het algoritme een negatieve beslissing krijgen, worden niet meer in overweging genomen nadien. Bepaalde fouten van het algoritme, de zogenaamde vals negatieven, worden dan niet meer opgemerkt en worden bij herhaalde toepassing van het algoritme zelfs een zelfvervullende voorspelling. Efficiëntie heeft zo wel een heel donkere zijde.
Ook de standaardisering is niet zaligmakend. Algoritmen kunnen in complexe situaties onvoldoende context in rekening brengen. Dat zie je niet in de uitkomst, waar onzekerheden of onvolledigheden van de data aan de input vaak volledig verdwenen zijn. Overigens kan een mogelijke bias die optreedt in een wijdverspreid algoritme als eenheidsworst dominant worden in de hele samenleving, terwijl individuele beslissingen gebaseerd op vele individuele menselijke afwegingen elkaar eerder zouden uitvlakken.
Computer says no
Deze argumenten verhullen echter een derde, onderbelichte reden waarom algoritmen zo wijdverspreid worden toegepast. Door algoritmen in te zetten kunnen bepaalde ingewikkelde discussies makkelijk onder de mat geveegd worden. Het is eenvoudiger om een beslissing te verstoppen achter de ondoorzichtigheid van een algoritme dan uit te leggen waarom die beslissing werd genomen.
Neem bijvoorbeeld de beslissing welke kandidaten worden uitgenodigd voor een jobinterview. Daarvoor kan een algoritme worden gecreëerd dat op basis van enkele datapunten een eerste schifting maakt. Dat model zoekt in die data bepaalde patronen en vergelijkt die met de mensen die eerder door het bedrijf werden aangenomen. De ontwikkelaar kan vaak niet uitleggen wat die patronen precies zijn en waarom de ene persoon niet en de andere wel een uitnodiging krijgt. In deze situatie moet niemand nadenken of uitleggen waarom bepaalde professionele ervaringen resulteren in een positief antwoord en andere niet. Erger nog, mogelijk beslist het algoritme hoofdzakelijk op basis van de naam of het geslacht van de sollicitant.
De ongemakkelijke vragen
Hoe kunnen we nu verder? We zijn immers helemaal niet tegen efficiënte werktuigen die ons kunnen bijstaan in een complexe wereld. We vinden wel dat we vaker de ongemakkelijke vragen moeten durven te stellen. Bij de ontwikkeling van elk algoritme dat over mensen oordeelt is het belangrijk te vragen of het wel echt nodig is en waartoe het dient en wie het dient. Vervolgens moet kritisch worden gepeild naar welke kenmerken van een persoon gelinkt kunnen worden aan de beslissing en welke kenmerken totaal irrelevant zijn. Dat is geen beslissing die alleen de ontwerpers van een algoritme mogen maken. Deze discussie is niet eenvoudig en moeten we als maatschappij durven te voeren.
“Bij de ontwikkeling van elk algoritme dat over mensen oordeelt, is het belangrijk te vragen of het wel echt nodig is, waartoe het dient en wie het dient.”
Vervolgens moeten we ook de interne werking van de algoritmen bevragen en zo inzetten op een hogere transparantie. Iedereen heeft recht op een duidelijke uitleg over een genomen beslissing. Die mag niet verhuld worden door een black box waarvan soms zelfs de ontwerper niet helemaal begrijpt hoe die werkt. De Europese Unie werkt aan nieuwe regulering die modellen en algoritmen transparant, eerlijk en privacyvriendelijk moet maken. Ook de Belgische universiteiten werken mee daaraan op juridisch, sociaal, wetenschappelijke en technologisch vlak, onder meer met de oprichting van het Brusselse AI center for the Common Good.
De betoverende efficiëntie waarmee zelflerende algoritmen bepaalde patronen in onze data oppikken en die gebruiken voor aanbevelingen leidt ertoe dat velen zich er gewillig door laten leiden en begeleiden. De kloof tussen de ontwerpers, gebruikers en burgers wordt echter steeds groter. Vandaar de oproep aan beleidsmakers en burgers om zelflerende algoritmen kritisch te omarmen. Alleen door de hele keten van beslissingen op basis van zelflerende algoritmen collectief in kaart te brengen en kritisch te bevragen, worden algoritmen nuttige werktuigen die de samenleving kunnen dienen.