ANALYSE – Al jaren wordt er gepleit voor meer diversiteit in de techsector. Eén van de belangrijke redenen: alleen als een bedrijf divers is, kan het software ontwikkelen die niet racistisch of seksistisch is.
Op het grote tech-evenement I/O van Google had CEO Sunder Pichai het ook over dat thema. Hij vertelde wat zijn bedrijf doet om de eigen modellen voor kunstmatige intelligentie (KI) te verbeteren en legde haarfijn uit hoe softwaremodellen die seksistisch of racistisch zijn binnen no-time per ongeluk ontwikkeld kunnen worden.
Eén onderwerp omzeilde hij vakkundig: regelgeving. Dat terwijl andere grote techbedrijven als Microsoft wel oproepen tot wettelijke richtlijnen rondom KI.
Pichai benoemde dat er bij Google zelf een grote verantwoordelijkheid ligt om neutrale algoritmes te ontwikkelen. “Het is niet voldoende dat een programma de taak uitvoert zoals we het hebben opgedragen”, zegt hij over KI. “We moeten ook weten hoe het programma dat doet. We moeten zeker weten dat onze modellen niet de vooroordelen bevestigen die al bestaan in de echte wereld.” Daarom moet Google zich volgens hem ook focussen op de data die wordt gebruikt om de KI-modellen te trainen.
Google biedt in zijn cloud bijvoorbeeld KI-algoritmes aan die mensen op foto’s kunnen herkennen, zegt Pichai. Iemand zou met deze technologie software kunnen maken die dokters herkent. Als het model vervolgens getraind wordt met heel veel foto’s van mannen in witte jassen met een stethoscoop, concludeert het – ten onrechte – dat mannelijkheid een belangrijke factor is in het herkennen van een dokter op een foto.
Pichai noemt als ander voorbeeld een KI-algoritme dat huidkanker probeert te herkennen. "Om dat algoritme effectief te laten zijn, moet het een grote variatie aan huidskleuren herkennen." Denk eens aan wat er zou kunnen gebeuren als het model niet zou weten dat mensen allerlei huidtinten kunnen hebben, hield Pichai zijn publiek voor. Iemand zou dan te horen kunnen krijgen dat hij huidkanker heeft, terwijl anderen onterecht wordt verteld dat er niets aan de hand is.
Hij zegde vervolgens toe dat hij er niet alleen voor wil zorgen dat Google's eigen technologie niet racistisch of vooringenomen is, maar ook dat ze hun bevindingen zullen delen met andere wetenschappers.
"Er is nog veel werk te doen, maar we zijn erop gebrand KI zo te ontwikkelen dat het eerlijk is en voor iedereen werkt. Daar hoort ook bij dat we vooringenomenheid in onze eigen modellen opsporen en aanpakken en dat we open datasets delen."
Op het matje geroepen
Over regulatie repte hij echter met geen woord. Dat is opmerkelijk. Andere bedrijven roepen wel om regelgeving op het gebied van KI - vaak bedrijven die al op het matje zijn geroepen om hun eigen modellen.
Het Amerikaanse ACLU publiceerde bijvoorbeeld een rapport waarin de burgerrechtenorganisatie claimt dat de KI-techniek achter de gezichtsherkenning van Amazon niet betrouwbaar is. In het rapport laten ze zien hoe de gezichtsherkenning een aantal Amerikaanse politici verkeerd identificeerde. De webgigant weerlegde de kritiek door in een blogpost de geldigheid van de ACLU-test in twijfel te trekken
Intussen heeft Amazon wel deze technologie verkocht aan de Amerikaanse politie, die niet altijd op de hoogte is van de beperkingen ervan, schrijft The Washington Post. En in het verleden kreeg Amazon ook al kritiek omdat het met KI een sollicitatietool bouwde die vrouwen discrimineerde.
En Microsoft werd een paar jaar geleden terechtgewezen door een onderzoeker aan het prestigieuze MIT. Het bleek dat drie veelgebruikte systemen voor gezichtsherkenning, die Microsoft samen met IBM en het Chinese Megvii had ontwikkeld, ontzettend slecht waren in het herkennen van niet-witte gezichten.
Nog niet eens heel lang geleden werd Microsoft publiekelijk aan de schandpaal genageld toen het de chatbot Tay die op Twitter introduceerde. Binnen 24 uur moest Tay offline worden gehaald omdat de bot racistisch en seksistisch begon te twitteren nadat twittertrollen het zulke woorden hadden geleerd.
Het techbedrijf zegt dat het sindsdien de KI-technologie drastisch heeft verbeterd. Ook verkoopt Microsoft de software niet meer aan jan en alleman.
Moeten we de techbedrijven vertrouwen?
Maar Microsoft neemt ook het voortouw binnen de sector door te pleiten voor regelgeving omtrent KI. Grote rivaal Amazon volgde afgelopen februari. In diezelfde maand publiceerde Google een artikel waarin het eveneens voor regelgeving pleitte. Tegelijkertijd beargumenteerde het bedrijf dat regelgevers zich het grootste deel van de tijd afzijdig zouden moeten houden.
Dit is dus waar we nu staan. De drie grootste ontwikkelaars van KI-technologie weten dat het met goede en met slechte wil kan worden ingezet. Ze weten dat zelfs softwareontwikkelaars met de beste intenties vooringenomen technologie kunnen programmeren. Alle drie zeggen ook dat ze eraan werken om hun technologie te verbeteren. Moeten we ze maar gewoon vertrouwen?