© iStock

Blijkbaar zijn robots ook racistisch en seksistisch. Dit is waarom

14 april 2017

Als robots beslissingen zouden nemen, zouden die dan perfect zijn omdat ze geen menselijke fouten maken? Mis poes, want artificiële intelligentie, de 'hersenen' achter robots en programma's, nemen onze morele keuzes over. Gevolg: blijkbaar zijn die ook racistisch en seksistisch. Dat wil niet zeggen dat we de morele codes helemaal moeten schrappen.

Om van enig nut te zijn moeten computers, programma's en robots begrijpen hoe de taal van mensen eruitziet en vooral, wat we ermee bedoelen. Een baanbrekend artificieel intelligentieprogramma, GloVe, doet precies dat, maar onderzoekers aan de universiteit van Princeton kunnen nu aantonen dat het ook de seksistische en racistische beslissingen van de mensen die het probeert te begrijpen overneemt.

Het probleem zit 'm gewoon in de taal zelf. We kunnen al lang aantonen dat mensen met een identiek CV, maar een Arabische achternaam, minder uitgenodigd worden voor een gesprek dan hun blank-klinkende tegenhangers. Ook de AI zou dat nu doen, omdat het dezelfde taalassociaties maakt als wij.

Rood, hart, liefde, zwart

Stel je een woordvlak voor, waar allerlei woorden inzitten die je met elkaar associeert. Bij 'rood' denk je misschien aan 'hart', maar ook aan 'liefde', terwijl 'zwart' een heel andere set emoties oproept. De onderzoekers aan Princeton toonden met hun research dat ook GloVe die lijnen trekt.

Bijvoorbeeld: 'vrouw' en 'vrouwelijk' worden meer geassocieerd met de humane wetenschappen, maar ook met huiselijk werk terwijl 'man' en 'mannelijk' in hetzelfde vak werden gezet als 'wiskunde' en ingenieursstudies. Dat klinkt misschien niet als een groot drama, maar in onze wereld worden steeds meer kleine beslissingen genomen door AI. Het heeft dus wel degelijk een effect.

Ook op ras wordt er trouwens geselecteerd: Europese en Noord-Amerikaanse namen hingen sterker samen met woorden als 'geschenk' of 'geluk'. Afro-Amerikaanse namen werden dan weer geassocieerd met onprettige woorden. AI is dus niet alleen seksistisch, ze zijn ook racistisch. En dat is de schuld van de taal die we zelf gebruiken. Historisch gegroeid dus.

Niet hun eigen schuld

Joanna Bryson, een co-auteur van de paper van University of Bath zegt aan The Guardian: “Veel mensen zeggen dat deze studie aantoont dat AI bevooroordeeld is. Nee. Dit toont dat mensen vooroordelen hebben en dat AI dat aanleert."

Stappen we best weg van computers, als zij toch dezelfde fouten maken als hun menselijke tegenhangers? Nee, niet bepaald. Want wat we wel kunnen, is het algoritme achter AI aanleren hoe het seksisme en racisme moet herkennen. Iets dat bij mensen nog steeds een moeilijke opgave blijkt. Eén horde die we daar nog moeten nemen, is ontdekken welke elementen in onze eigen taal racistisch zijn.

Lees meer

Dit al gelezen?