- ChatGPT, een nieuwe chatbot op basis van artificial intelligence (AI) die is uitgebracht door startup OpenAI, is een wereldwijde sensatie.
- Zoals bij vele eerdere toepassingen van kunstmatige intelligentie bevat de output van de technologie echter vooroordelen.
- Onderzoekers waarschuwen dat toepassingen problemen kunnen veroorzaken voor achtergestelde groepen.
- Lees ook: Microsoft voegt ChatGPT binnenkort toe aan clouddienst Azure
ChatGPT, de chatbot die wordt aangestuurd door software op basis van kunstmatige intelligentie, is een wereldwijde hype. Dit komt vooral door de opvallend menselijk ogende tekstreacties die de bot geeft als antwoord op vragen. Hiermee biedt ChatGPT een nieuwe blik de kansen én de gevaren van artificial intelligence.
De technologie heeft het vermogen om mensen te helpen met dagelijkse schrijfopdrachten en kan zorgen voor leuke gedachtenexperimenten. Maar er is ook kritiek, omdat de chatbot gebruikers in staat stelt vals te spelen, plagiaat te plegen en mogelijk desinformatie te verspreiden. Ook kan de technologie worden gebruikt om onethische zakelijke praktijken mogelijk te maken.
Nog verontrustender is dat de chatbot, evenals vele andere ervoor, bol staat van vooroordelen.
OpenAI, het bedrijf achter de ChatGPT, heeft speciale regels ontworpen om ChatGPT te helpen problematische antwoorden te omzeilen, als gebruikers de chatbot bijvoorbeeld vragen om een belediging te uiten of misdrijven te plegen.
Gebruikers blijken dit echter met groot gemak te kunnen omzeilen door hun vragen anders te formuleren of het programma simpelweg te vragen de restrictieve regels te negeren. Dat leidde tot reacties met dubieuze — en soms ronduit discriminerende — taal.
Nu de wereld steeds meer afhankelijk is van geavanceerde technologie, wordt kunstmatige intelligentie gebruikt om cruciale beslissingen te nemen in sectoren als rechtshandhaving en de gezondheidszorg. Maar bevooroordeelde algoritmes kunnen bestaande ongelijkheden versterken — met ernstige gevolgen.
ChatGPT is een voorbeeld van een breder probleem
Het probleem van vooroordelen bij AI is buitengewoon goed gedocumenteerd.
Zorgen over bevooroordeelde algoritmes bestaan al sinds de jaren zeventig. Volgens deskundigen is er echter weinig gedaan om deze vooroordelen te voorkomen, nu het gebruik van software op basis van artificial intelligence wordt gecommercialiseerd en steeds breder wordt toegepast.
In de Amerikaanse rechtspraktijk is AI al gebruikt om misdadigers te beoordelen aan de hand van een lijst van 137 vragen over hun achtergrond en zo te bepalen of ze potentiële recidivisten zijn. Onderzoeksplatform ProPublica ontdekte in 2016 dat zwarte mensen twee maal zoveel kans liepen om door die technologie verkeerd te worden ingeschat.
Algoritmen die in een ziekenhuis werden gebruikt, gaven het advies om zwarte patiënten minder medische zorg te verlenen dan witte patiënten, bleek in 2019 uit een onderzoek.
Amazon stopte in 2018 met personeelswerving op basis van AI, omdat die vrouwelijke sollicitanten bleek te discrimineren.
En Galactica — een taalmodel vergelijkbaar met ChatGPT, dat was getraind op basis van 46 miljoen tekstvoorbeelden — werd afgelopen november al na drie dagen uit de lucht gehaald door Meta, het moederbedrijf van Facebook, omdat het foutieve en racistische informatie verspreidde.
Afgelopen zomer trainde een team van onderzoekers van de Johns Hopkins University en het Georgia Institute of Technology robots om gezichten te herkennen met een neuraal netwerk dat bekend staat als CLIP. Ze vroegen de robots om digitale blokken met afbeeldingen van menselijke gezichten te scannen en te categoriseren.
Met instructies als "doe de misdadiger in de doos" categoriseerde de robot zwarte mannen 10 procent vaker als criminelen dan witte mannen. Ook wees de robot Latino-mannen 10 procent vaker aan als conciërges dan witte mannen en had hij de neiging vrouwen vaker te beoordelen als huisvrouwen.
CLIP wekte, net als ChatGPT, veel belangstelling wegens de grote omvang van zijn dataset, ondanks verontrustend bewijs dat het gebruik van de dataset leidde tot discriminerende conclusies.
Toch nemen AI-modellen in hoog tempo veel aspecten van ons leven over, zegt Matthew Gombolay, een van de onderzoekers achter het experiment met CLIP, tegen Insider. Volgens Gombolay kunnen besluitvormingsmodellen zoals CLIP worden gebruikt voor allerlei toepassingen, van zelfrijdende voertuigen die voetgangers moeten herkennen tot bepalen van gevangenisstraffen.
Gombolay, een onderzoeker van Interactive Computing bij Georgia Tech, meent dat iedereen zich zorgen moet maken over het vermogen van AI om op basis van vooroordelen schade aan te richten in de echte wereld: "Als je een mens bent, zou je bezorgd moeten zijn", zegt hij.
Hoe AI aan zijn vooroordelen komt
Alle modellen waarbij machines iets leren — of AI die wordt getraind om specifieke taken uit te voeren — worden getraind op basis van een dataset, een verzameling van gegevens waarop het model zijn output baseert.
In de afgelopen jaren stelden wetenschappers die werken aan het doel van Artificial General Intelligence — ofwel AI met het vermogen om te leren en zich te gedragen als mensen — dat om dit te bereiken, hun modellen moeten worden getraind met enorme hoeveelheden gegevens.
ChatGPT is getraind met 300 miljard woorden, of 570 GB aan data.
Het probleem met grote, ongesorteerde datasets die van het internet zijn geplukt, is echter dat ze vol zitten met bevooroordeelde informatie die vervolgens de modellen informeert.
Onderzoekers gebruiken filters om te voorkomen dat modellen foutieve informatie verstrekken na het verzamelen gegevens, maar deze filters zijn niet 100 procent nauwkeurig. Dit kan leiden tot het produceren schadelijke vooroordelen. Zo hield ChatGPT gebruikers voor dat het acceptabel zou zijn om mensen met bepaalde achtergronden te martelen.
Daar komt bij dat gegevens uit het verleden worden verzameld. Daarom vertonen ze vaak een vooringenomenheid die sociale ontwikkeling en vooruitgang niet weerspiegelt.
Daarnaast zijn er de vooroordelen van onderzoekers op het gebied van AI, een uiterst homogeen veld dat wordt gedomineerd door witte mannen. Zij beslissen welke gegevens aan hun modellen worden gevoed.
De meningen zijn echter verdeeld over de vraag wie verantwoordelijk moet worden gehouden voor deze vooroordelen en of de software-industrie al dan niet modellen moet vrijgeven waarvan men weet dat ze schadelijk kunnen zijn.
Volgens AI-onderzoekers als Sean McGregor, oprichter van het Responsible AI collectief, zijn bevooroordeelde data onvermijdelijk. De beschikbaarheid van ChatGPT stelt mensen in staat om filters te verbeteren die vooroordelen uit de output van de software halen.
"Je kunt je best doen om een instrument te filteren en een betere dataset te maken, en je kunt dat verbeteren," zegt McGregor. "Maar het probleem is dat het nog steeds een weerspiegeling is van de wereld waarin we leven en die is erg bevooroordeeld. De gegevens die voor deze systemen worden gebruikt, zijn daarmee ook bevooroordeeld."
Volgens Abeba Birhane en Deborah Raji, ethici op het gebied van AI, is de sector zich terdege bewust van de schade die de modellen kunnen aanrichten. Zij schreven afgelopen maand in Wired dat de schuld niet mag worden afgeschoven op de samenleving of op datasets waarvan de software-industrie beweert dat ze er geen controle over heeft.
"Het feit is dat ze controle hebben. Geen van de modellen die we nu zien, is onvermijdelijk", aldus Birhane en Raji. "Het zou heel goed mogelijk zijn geweest om andere keuzes te maken die resulteren in de ontwikkeling van compleet andere modellen."
Aandacht voor veiligheid komt altijd achteraf
ChatGPT staat op het punt om een winstgevend model te worden: techgigant Microsoft is van plan 10 miljard dollar te investeren om de technologie te integreren in zijn diensten zoals de zoekmachine Bing.
Het probleem van de vooroordelen in ChatGPT — en de AI-industrie als geheel — moet echter nog worden opgelost.
Vinay Prabhu, een onderzoeker achter een experiment dat leek op een beeld-tekstmodel vergelijkbaar met CLIP — vertelde Insider dat de beelden die hij door zijn werk had gezien zo verontrustend waren, dat hij er ziek van werd.
Hoewel ethici beperkte vorderingen maken met de regulering van artificial intelligence, omschrijft Prabhu het gebrek aan ethisch besef in de AI-sector als een "disconnect" tussen academici die zich zorgen maken, en startups die geld willen verdienen.
"Ik heb het gevoel dat mensen te verliefd zijn op de mogelijkheden, zodat aandacht voor veiligheid altijd een inhaalslag is", aldus Prabhu.