Naar homepage
Wetenschap & Techniek

De keerzijde van algoritmen

foto: Pixabayfoto: Pixabay
  1. Nieuwschevron right
  2. De keerzijde van algoritmen

Niet alleen Facebook, maar ook de overheid zet algoritmes in. Voor stoplichten, controles, betalingsregelingen, parkeerboetes, en fraude-opsporing. Soms kan dit fout gaan, zoals bij de toeslagenaffaire, waarbij dubbele nationaliteit als risicofactor werd meegerekend. Hoe kunnen gemeentes op een goede manier gebruik maken van algoritmes? In Focus vertelt mediawetenschapper Maranke Wieringa van de Universiteit Utrecht over haar onderzoek naar hoe gemeentes verantwoording afleggen over algoritmes.

Het gebruik van algoritmes door de overheid

Science fiction

Voor veel mensen hangt er iets engs boven algoritmes. Hoe komt dat? Maranke: "Ik denk dat een algoritme voor heel veel mensen voelt als iets heel technisch, waar je veel kennis voor nodig hebt. In de basis is een algoritme een instructie voor een computer om een probleem op te lossen. Dat past altijd binnen sociale en culturele praktijken. Het zijn dus eigenlijk sociotechnische systemen waar we over spreken.

Mensen hebben het gevoel dat er een hoop aan die computers uitbesteed wordt en dat ze daardoor misschien grip verliezen. We hebben vaak te maken met science fiction verhalen die ons eigenlijk voorspiegelen. We leren dat er op een gegeven moment kunstmatige intelligentie komt die sneller en beter wordt dan wij als mensen. Daar zijn we nog lang niet, en de vraag is of dat ooit gaat gebeuren. Maar dat zijn wel beelden die meewegen voor mensen in hoe ze naar algoritmes kijken."

Gezichtsherkenning

De computerwetenschapper, digitale activist, en code poet Joy Buolamwini deed onderzoek naar gezichtsherkenningssystemen en kwam erachter dat die systemen mannen beter herkennen dan vrouwen.

Maranke: "Zwarte vrouwen worden het minst goed herkend. Je ziet bijvoorbeeld dat een zwarte vrouw met een afrokapsel getypeerd wordt als iemand met een wasbeerhoed, of een man met een snor. Er gaat daar zoveel in fout. Het onderzoek kwam er op neer dat trainingsdatasets bevooroordeeld zijn richting witte mannen." Dit komt omdat er in de systemen meer foto's van witte mannen worden gebruikt, dan van zwarte mannen, of van zwarte vrouwen.

"Ik vind het erg belangrijk dat we gaan nadenken over wat leren we aan dit soort systemen, wat we laten doorwerken in die systemen. Die systemen zijn ingebed in sociale praktijken en staan in een cultuur. De maatschappij is vooral ingericht op witte mannen, dus het is eigenlijk een spiegel van de samenleving."

Postcode

Er is nooit een neutrale vertaling van een idee naar code. Er zitten altijd keuzes in en waarden en normen in verwerkt, zo ook in algoritmes. Wat je in een systeem stopt, maakt wel degelijk uit voor wat eruit komt.

"Iemands postcode kan al samenhangen met ras en etniciteit, of financiële positie. De ene wijk heeft duurdere huizen dan de andere huizen.

Het is een deel van de discussie die we moeten voeren. Het begint eigenlijk met: wat willen we doen, hoe willen we het gaan doen, wat willen we dat het systeem niet gaat doen, hoe zorgen we daarvoor, en hoe gaan we dat controleren? Als wetenschappers kunnen we erbij helpen om het gesprek aan te gaan."

Wat doet een algoritme? En kunnen algoritmes discrimineren? NPO Kennis legt het uit.

NPO Radio 1 houdt je dagelijks op de hoogte over de laatste ontwikkelingen in de wetenschap

Dagelijks tussen 17.00 en 18.30 uur in Nieuws en Co
Iedere werkdag van 02.00 tot 04.00 uur in Focus
En wanneer je maar wil in podcast Focus Wetenschap

Ster advertentie
Ster advertentie