- Twee veelgenoemde problemen met artificial intelligence zijn de risico’s van vooroordelen en gebrek aan transparantie over hoe AI-programma’s tot bepaalde uitkomsten komen.
- Maar volgens Niya Stoimenova van de Nederlandse startup Deus.ai is er een grotere uitdaging: het ecosysteem rond AI.
- Business Insider sprak Stoimenova over de vraag hoe we ervoor kunnen zorgen dat AI gebruiksvriendelijk is en eerlijke en nauwkeurige uitkomsten genereert.
- Lees ook: Hot in Tech: zijn AI-tools zoals ChatGPT al goed genoeg om banen te kunnen schrappen?
Bij toepassingen van artificial intelligence (AI) wordt ‘bias’, ofwel het ontstaan van bevooroordeelde uitkomsten op grond van data en analysemethoden waar softwareprogramma’s mee werken, vaak aangehaald als een van de grootste problemen van kunstmatige intelligentie.
Een AI-programma dat om welke reden dan ook een voorkeur heeft voor een bepaalde uitkomst, is doorgaans ongewenst. Zeker als degenen die de software gebruiken, zich niet bewust zijn van de bias.
“In de IT-industrie en wetenschap wordt nu gesteld dat we met gebalanceerde datasets moeten werken. Dat is op zich een goed idee, maar we moeten er ook rekening mee houden dat problemen rond vooringenomenheid en rechtvaardigheid nooit helemaal zullen verdwijnen. We moeten inzien dat de context waarin de uitkomst gepresenteerd wordt, een belangrijke rol speelt”, vertelt Niya Stoinmenova van de Amsterdamse startup Deus.ai in een gesprek met Business Insider.
Stoinmenova richt zich als ‘Reliable AI Lead’ op oplossingen die ervoor zorgen dat AI-systemen werken op een manier die makers en gebruikers voor ogen hebben.
Wat betreft het probleem van vooringenomenheid wordt op dit moment vooral gekeken naar de rol van bekende kenmerken in datasets, zoals geslacht en ras. Maar een voorkeursuitkomst in een AI-model kan op verschillende manieren ontstaan. Er zit veel verborgen 'bias' in data waar we ons niet van bewust zijn.
"Je kunt bijvoorbeeld op basis van door mensen ingevoerde data vaak indirect bepalen wat de afkomst, gender en nationaliteit is", legt Stoimenova uit. "Puur op basis van hoe je iets invoert, zouden we bijvoorbeeld kunnen achterhalen dat jij een blanke man van in de dertig bent, zonder dat je ons die data specifiek geeft."
Bias van AI-modellen lastig op te lossen, maar vraag is of dat het doel moet zijn
Dat is nog maar één voorbeeld van hoe complex de kwestie van bias in AI is. Maar Stoimenova gaat verder en stelt dat het probleem, afhankelijk van de gewenste uitkomst en de context, wellicht helemaal geen probleem is. “Misschien wil je juist een bias richting vrouwen of mensen met een bepaalde afkomst, omdat die informatie voor jou op dat moment belangrijk is. Dan is het eerder een pluspunt dan een probleem.”
Een ander veel genoemd punt bij AI-modellen is het zogenoemde ‘black box’-probleem. Hierbij kunnen de makers van AI-software niet uitleggen hoe hun AI-model precies werkt en hoe bepaalde uitkomsten tot stand komen. De oplossing hiervoor zou moeten komen in de vorm van ‘explainable AI’. Degenen die hiervoor pleiten, zeggen dat de makers van AI-modellen te allen tijde moeten weten wat hun systemen doen en hoe deze werken.
Volgens Stoimenova is het black box-probleem vooral op papier een probleem. Ze stelt dat de AI-software die momenteel in het bedrijfsleven wordt gebruikt, voor het overgrote deel vrij simpel in elkaar zit.
Natuurlijk zijn er uitzonderingen in de vorm van generatieve AI-modellen waar ChatGPT en Midjourney op draaien. Veel andere AI-modellen zitten echter tamelijk eenvoudig in elkaar en werken met relatief kleine datasets, waardoor er zelfs met enig vertrouwen voorspeld kan worden wanneer en of een systeem fouten gaat maken.
“Voor de complexere systemen vraag ik me af hoelang de huidige manier van werken überhaupt houdbaar is”, zegt Stoimenova. “Ze werken nu allemaal met een soort ‘brute force’, waarbij er enorm veel rekenkracht en data nodig is voor een fatsoenlijke werking. Dat kan niet ongelimiteerd zo doorgaan, alleen al omdat het gigantisch veel geld kost om deze systemen draaiende te houden, wat monopolievorming in de hand werkt. Er moet een keer een elegante oplossing komen die beter en efficiënter werkt”.
Hoewel Stoimenova vraagtekens zet bij de omvang van de problemen rond 'bias' en uitlegbaarheid van AI-systemen, betekent dat volgens haar niet dat het om zaken gaat die vrij eenvoudig zijn op te lossen. "Ik denk dat bias nooit helemaal op te lossen zal zijn, maar de vraag hierbij is of we het wel moeten oplossen. We moeten ons vooral richten op de bredere context waarin AI-modellen werken en wat er van ze wordt verwacht.”
“Wat betreft de werking van AI-modellen kunnen we modellen voor het grootste gedeelte prima uitleggen, maar dit is slechts een klein deel van de puzzel. We moeten het gehele plaatje kunnen zien om goed te kunnen inschatten wat een AI-model kan gaan doen en waar het fouten kan gaan maken”, zegt ze. “Pas dan kun je de impact van AI-modellen met enige mate van betrouwbaarheid voorspellen en mogelijke problemen mitigeren."
Een schilderij van Van Gogh: oog voor het ecosysteem van AI
Het doorgronden van de werking van een AI-model vergelijkt Stoimenova met het analyseren van een schilderij van Van Gogh. “Op het niveau van het AI-model kijk je heel gedetailleerd. Het is alsof je van een hele korte afstand naar een schilderij kijkt en elke individuele strook van de kwast analyseert. Maar als je het ecosysteem waarin een model functioneert wilt begrijpen, moet je een paar stappen terug doen. Dan kijk je bij wijze van spreken naar het gehele schilderij en probeer je vast te stellen door wie en wat het werk van Van Gogh is beïnvloed", legt ze uit.
De factoren die invloed kunnen hebben op een AI-systeem, zijn er meer dan je zou verwachten. Denk bijvoorbeeld aan oudere, nog draaiende IT-systemen die worden gekoppeld aan een AI-model , zonder dat dit wordt beseft of goed in kaart is gebracht. Hierdoor kan ongewenste en verouderde data in het model sluipen en de werking van het AI-systeem in de war brengen.
Maar de rol van de omgeving op AI-modellen gaat nog verder: de invloed van mensen die ermee werken, databronnen die worden gebruikt en alle externe partijen die van belang zijn, moet in kaart gebracht worden. Alles waarmee een AI-model interactie kan hebben, moet in beeld zijn. Pas als dat het geval is, kan ervoor gezorgd worden dat een AI-modeel optimaal presteert en wordt de kans op fouten of misdragingen geminimaliseerd.
Voor Stoimenova is dit geen theoretische kwestie. Als onderdeel van een team bij Deus.ai werkt ze aan een oplossing die AI-systemen monitort. Onderdeel daarvan is een eigen AI-model dat kan vaststellen of andere AI-systemen naar behoren functioneren en ook kan ingrijpen als dat niet het geval is.
Dit systeem, genaamd Seia, kan bij bedrijven en andere organisaties worden ingezet als onderdeel van een bredere oplossing. Maar opmerkelijk genoeg is menselijke feedback een van de belangrijkste onderdelen ervan. De menselijke interpretatie is enorm belangrijk voor een goede werking.
“Alleen weten mensen vaak niet hoe ze met dit soort systemen moeten omgaan en kunnen ze dus ook geen kwalitatief goede feedback geven", vertelt Stoimenova. "Op korte termijn is ons hoofddoel dan ook een pilot-programma starten waarbij we het voor mensen makkelijker willen maken om nuttige feedback te geven."
Daarbij komt ook nog eens dat de oplossing van Deus.ai een doorlopend project is. “We leveren niet zomaar iets af en daarmee is het klaar. Het constante leerproces waar AI-modellen aan onderhevig zijn, zorgt voor een constante verandering in de werking en dus ook de uitkomsten. Dat vereist dat monitoring en permanente doorontwikkeling”, verduidelijkt ze.
AI die antwoorden geeft die je leuk vindt, moet niet ten koste gaan van eerlijkheid en nauwkeurigheid
Het uiteindelijke doel is om ervoor te zorgen dat AI-modellen betrouwbare informatie geven op basis waarvan de gebruikers een optimale keuze kunnen maken binnen een bepaalde context.
Daarbij wijst Stoimenova nog wel op een ander probleem dat ze in de wereld van generatieve AI ziet ontstaan: de focus op hyper-personalisering van de uitkomsten van de AI-modellen. Of eigenlijk het beperken van de context waarin de modellen werken.
Het lijkt erop dat makers van AI-modellen zich langzaam maar zeker proberen te bewegen in de richting van hoe bedrijven als Google en Facebook te werk gaan, als het gaat om het filteren van het type informatie dat mensen te zien krijgen. Beide bedrijven zetten personalisering in om gebruik te verhogen en dat werkt voor hen.
Makers van generatieve AI-modellen voor bijvoorbeeld chatbots lijken op hetzelfde te mikken. “Als jij antwoorden krijgt die je leuk vindt, kom je waarschijnlijk nog een keer terug met andere vragen”, legt Stoimenova uit.
Het zoeksysteem en bijbehorende advertentiemodel van Google is een voorbeeld van personalisering. Zoek je in Nederland op een kaasboer, dan geeft Google je resultaten bij jou in de buurt, niet ergens in het midden van de VS, want Google weet dat je je daar niet bevindt.
Facebook is hier ook een goed voorbeeld van. Het socialmediaplatform werkt al jaren met een AI-model dat berichten voorschotelt waarvan het weet dat je die wilt zien, op basis van kennis die Facebook over je online lees- en kijkgedrag heeft verzameld.
Het probleem met hyper-personalisatie is dat je als het ware in je eigen contentbubbel komt te zitten. Als dat met AI ook gebeurt, krijgen eindgebruikers dus niet per se de beste informatie, maar de informatie die ze graag willen zien, die ook nog eens foutief kan zijn.
Volgens Stoimenova zou er dan ook meer gesproken moeten worden over gebruiksgemak in plaats van personalisering. “Het makkelijk en leuk maken om interactie te hebben met AI-systemen gaat uit van gebruikersgerichtheid”, legt ze uit. “AI zou voor iedereen makkelijk toegankelijk moeten zijn, maar we moeten er wel voor zorgen dat eerlijkheid en nauwkeurigheid van de uitkomsten die we van AI krijgen, voorop blijven staan.”