Binnenland
NOS

Overheid gebruikt op grote schaal algoritmes, 'risico op discriminatie'

foto: NOSfoto: NOS
  1. Nieuwschevron right
  2. Overheid gebruikt op grote schaal algoritmes, 'risico op discriminatie'

De overheid gebruikt op grote schaal algoritmes. Dat blijkt uit een vertrouwelijke inventarisatie onder 54 overheidsinstanties die de NOS heeft verkregen op basis van de Wet Openbaarheid Bestuur.

De overheid gebruikt bijvoorbeeld algoritmes om fraude en criminaliteit op te sporen, maar ook om in te schatten wat voor zorg iemand nodig heeft en wat de kans is dat een leerling van school gaat voordat zijn of haar opleiding is afgerond.

Onder meer landelijke organisaties als de politie, de Belastingdienst en het Centrum Indicatiestelling Zorg leunen op voorspellende algoritmes, maar ook gemeenten, zoals Rotterdam, Tilburg en Groningen.

Discriminatie

Bij het gebruik van voorspellende algoritmes bestaat een groot risico op discriminatie, zegt onderzoeker Marlies van Eck van de Universiteit Leiden. Zij doet onderzoek naar gebruik van algoritmes. "Discriminatie is inherent aan deze technologie", zegt van Eck.

Dat ziet ook een samenwerkingsverband van gemeenten ten zuiden van Utrecht, dat bijstandsuitkeringen uitkeert en fraude opspoort met algoritmes. "Het heeft de schijn van discriminatie", schrijft het samenwerkingsverband van onder meer Nieuwegein, Houten en IJsselstein. "Daardoor is het volgens bestuurders mogelijk lastig om voorstander te zijn."

Schoolverlater

Een algoritme is een reeks instructies voor een computer. Zulke instructies kunnen simpel zijn: als iemand 10 kilometer te hard rijdt, dan krijgt hij een boete van een bepaald bedrag. Maar ze kunnen ook ingewikkelder zijn en honderden feiten meewegen, om zo bijvoorbeeld voorspellingen te doen of schattingen te maken.

Als bijvoorbeeld bekend is welke kenmerken een voortijdige schoolverlater heeft, kan een computer met behulp van een algoritme onderzoeken wie nog meer aan die kenmerken voldoen. Computers kunnen ingewikkelde patronen veel beter herkennen dan mensen.

Maar juist daarbij bestaat een risico op discriminatie, zegt ook hoogleraar ict-recht Lokke Moerel. "Het probleem is dat je gegevens uit het verleden in het algoritme stopt", zegt Moerel. "Maar vaak zit er in die data al een vooringenomenheid."

Ster advertentie
Ster advertentie