- Op dit moment hebben we de twee uitersten van door AI aangedreven chatbots binnen handbereik: ChatGPT en de chatbot van de bank.
- De een kan je uitleggen hoe nucleaire fusie werkt, en de ander snapt niet dat je je gehackte creditcard al geblokkeerd hebt.
- Hoe kan er zo’n enorm verschil tussen twee ‘AI-gestuurde’ chatbots bestaan?
- Lees ook: Is AI en auteursrecht echt een probleem?
Dit artikel verscheen eerder in de wekelijkse Business Insider Tech-Update. Deze nieuwsbrief ook ontvangen? Schrijf je dan onderaan deze pagina in.
OPINIE – Terwijl ChatGPT Google mogelijk het vuur aan de schenen legt door uitgebreide antwoorden op door jou gestelde vraagstukken in begrijpelijke taal te geven, kan de chatbot van een bank simpele taal niet eens herkennen. Hoe kan er zo’n enorm verschil tussen twee ‘AI-gestuurde’ chatbots bestaan?
Je zou kunnen stellen dat we hier appels met peren aan het vergelijken zijn. ChatGPT werkt namelijk op basis van een gigantisch taalmodel en haalt zijn informatie van het hele internet om antwoorden te geven en gesprekken gaande te houden met zijn gebruikers. De chatbot van de bank haalt zijn informatie uit een beperkte database van interne informatie en heeft dus ook veel minder om mee te werken om zich te ontwikkelen.
En ja, daar heb je gelijk in, maar dat is alleen het probleem met het genereren van antwoorden. En daar doelen we niet op. We doelen op het feit dat ChatGPT prima snapt wat je van hem verwacht, maar dat de chatbot van de bank niet snapt dat je credit card gehackt is en dat je wilt weten wat je nog meer kunt doen naast je pas blokkeren. Het antwoord dat die bot je dan waarschijnlijk stuurt is een link naar een FAQ waarin staat hoe je je pas moet blokkeren.
Dat komt voornamelijk omdat de chatbot van de bank eigenlijk verschrikkelijk dom is. Zijn ‘AI’ is niet meer dan het herkennen van steekwoorden. Achter de schermen pikt hij de steekwoorden ‘creditcard’ en ‘blokkeren’ op, die hij matcht aan een database en daarbij een vooraf geslecteerd antwoord produceert.
Met andere woorden: de chatbot van de bank kijkt niet naar de vraag die je stelt, hij interpreteert helemaal geen taal. Hij speurt de door jou ingevoerde tekst af naar steekwoorden. En als jij die steekwoorden niet geeft, dan krijg je geen antwoord, of het antwoord: "Ik snap je even niet, kun je dat nog eens proberen?"
ChatGPT kijkt naar de hele vraag die je hebt ingetikt, vergelijkt deze met de miljarden woorden, en woordvolgordes die het heeft ‘geleerd’ en matcht die met de antwoorden die erbij passen om deze vervolgens op basis van zijn ‘geleerde’ taalmodel aan je voor te schotelen. Dat daaruit soms foute informatie als antwoord wordt gegeven, komt doordat ChatGPT (nog) niet het verschil tussen goede en foute informatie kan onderscheiden. Informatie is informatie in de ogen van de software.
Maar als de chatbot van OpenAI op basis van een groot taalmodel en nog meer achterliggende informatie werkt, is de chatbot van een bank dan wel een chatbot? Niet echt. Het kan leren van de velen vragen die het dagelijks voorgeschoteld krijgt, maar dat doet het niet, of alleen zeer beperkt. Eigenlijk heeft de bank een simpele zoektool die zich voordoet als een vriendelijke klantenservicemedewerker.
En dat zijn waarschijnlijk ook de enige personen die wel blij zijn met de chatbot, want voor hen functioneert hij als filter die ervoor zorgt dat zij niet meer te maken krijgen met mensen die ‘domme vragen’ stellen. Zo kunnen zij zich voornamelijk bezighouden met de echt belangrijke kwesties. Tenminste, dat is het idee. Waarschijnlijk tikken steeds meer mensen "echt persoon" in als eerste zin bij de chatbot van de bank, om zo de domme antwoorden die ze anders voorgeschoteld krijgen te ontlopen.
*De bank is hier als voorbeeld genomen voor veel bedrijven die met ‘chatbots’ werken.