- Als we AI-makers mogen geloven, is een AI-model dat menselijke taken kan uitvoeren en daarmee je collega kan worden, het ultieme doel.
- Maar wat als we op het verkeerde pad zitten en de geschetste belofte van ‘artificial general intelligence’ verkeerd begrijpen?
- Business Insider Nederland ging in gesprek met topbestuurder Zoubin Ghahramani van Google DeepMind over de publieke perceptie van kunstmatige intelligentie en de gevolgen hiervan.
- Lees ook: AI-chatbot Claude kan je computer overnemen en taken uitvoeren
Nu de AI-hype al bijna twee jaar op volle toeren draait, beginnen er toch wat scheurtjes in het perfecte toekomstbeeld van de technologie te verschijnen. Je leest steeds vaker dat de toekomst met kunstmatige intelligentie helemaal niet zo rooskleurig zal zijn, of dat je op kleinere schaal toch beter niet op de antwoorden van ChatGPT kunt vertrouwen, hoe mooi ze ook lijken.
Een van de kritiekpunten is bijvoorbeeld draait om de vraag waarom AI-modellen zich steeds menselijker moeten gaan gedragen. Wat is daar het nut van, behalve dat wij mensen ons er prettig bij voelen en wellicht wat minder van de software verwachten, omdat het immers menselijk is om fouten te maken?
Maar ook rijst de vraag over waarom we het überhaupt hebben over ‘menselijke AI’, ook wel AGI (‘Artificial General Intelligence’) genoemd. Dat is de beloofde AI-technologie die op een ‘menselijk niveau’ of beter kan denken en daardoor dus ook menselijke taken kan overnemen, of zelfs hele banen kan vervullen.
“Als we het over AGI hebben in de zin van menselijke intelligentie, dan denk ik dat we onszelf eigenlijk tekort doen”, zegt topbestuurder Zoubin Ghahramani van Google DeepMind tegen Business Insider Nederland. “En eigenlijk is het ook een verkeerde insteek, want de G in AGI staat voor ‘General’, niet voor menselijk. Het is het algemene waar de focus op moet liggen.”
“We weten dat Gemini [de vraagbaak van Google, red.] geen AGI is, maar het is het in zekere zin toch wel. Je kunt een video invoeren en het model begrijpt wat er in deze video wordt getoond. Je kunt het een gedicht voor je laten opstellen en het in meerdere talen laten vertalen. Dus het wordt steeds meer algemeen”, verklaart hij.
In het algemene ligt de kracht van AGI, legt de onderzoeker uit. Een algemeen systeem kan je helpen om veel verschillende taken uit te voeren. Het maakt het waardevol om verschillende informatiebronnen te kunnen combineren om er meer nut uit te halen. Het idee is dat dit uiteindelijk leidt tot een meer praktische inzet van artificial intelligence.
'Lastig om het nut van AI te bepalen'
Maar volgens Ghahramani heeft het weinig zin om alle verschillende informatiebronnen dan maar willekeurig aan elkaar te koppelen en te hopen op een nuttige toepassing.
“Kijk maar eens naar de toepassing van bijvoorbeeld AlphaFold [een AI-systeem van DeepMind, red.] en zijn kracht om een 50 jaar oud probleem met het vouwen van eiwitten eindelijk op te lossen. Het zou niet passen om dit model te leren om Engels naar Nederlands te vertalen. Sommige functies combineren goed met elkaar, andere werken zelfstandig beter.”
Hoewel de topmanager van Deepmind dus niet per se gelooft in de menselijke versie van AGI, gaat hij er wel in mee dat dit in de nabije toekomst haalbaar moet zijn.
Al voorziet hij niet dat we een ‘aha-moment’ zullen krijgen. “Veel experts verwachten dat we AGI tussen twee jaar en twee decennia zullen bereiken”, zegt Ghahramani. “Maar volgens mij is het altijd een bepaalde tijdspanne, niet slechts een gebeurtenis. Ik denk dat we de bruikbare toepassingen van machines zullen zien toenemen en dan over iets van 60 jaar terugkijken en zien dat we AGI hebben behaald, maar dat we niet precies weten wanneer het gebeurd is.”
Daarbij komt ook de vraag naar boven over hoe we beoordelen of AGI, of een ander niveau van intelligentie behaald wordt. Op dit moment horen we veel over AI-modellen die slagen voor toelatingsexamens van gerenommeerde universiteiten.
Het probleem hierbij is dat dit niet de intelligentie van de AI-chatbot weergeeft, maar eerder hoe accuraat hij is met het voorspellen van zijn antwoorden. Het kan dus makkelijk verkeerd geïnterpreteerd worden.
“Het is voor ons ook lastig om goede benchmarks te vinden om mee te bepalen hoe AI-modellen het doen. Het is indrukwekkend dat we met een AI-model de zilveren medaille in de Internationale Wiskunde Olympiade kunnen halen, maar dat maakt het model nog niet nuttig of inzetbaar. Daar komt nog bij dat het lastig te achterhalen is of de antwoorden op de vragen niet al in de trainingsdata zaten”, aldus Ghahramani.
Toch hebben de benchmarks, naast het aangeven van de accuraatheid van het AI-model, ook een praktisch nut. “Ze laten wel zien dat AI-modellen je kunnen helpen om antwoorden te vinden op heel veel vragen.”
'AI draait niet alleen om chatbots'
Ghahramani is inmiddels al meer dan dertig jaar actief op het gebied van AI en heeft dan ook het nodige meegemaakt. Daaronder ziet hij ook de toegenomen aandacht voor de technologie die de AI-hype met zich heeft meegebracht. Dat heeft volgens hem de nodige voordelen, ook voor de ontwikkeling van minder populaire en minder zichtbare AI-modellen die een grote impact hebben op de mensheid.
“Een van de dingen waar het bij heeft geholpen, is dat overheden en instanties nu eerder bereid zijn om na te denken over een toekomst met AI”, legt Ghahramani uit. “Aan de andere kant helpt de aandacht op de AI-chatbots ook om wat aandacht te trekken naar het feit dat AI niet alleen om chatbots draait, maar dat er ook andere nuttige dingen uit voortkomen.”
Daarmee verwijst de onderzoeker naar AlphaFold, dat een doorbraak in de medische wetenschap en een Nobelprijs opleverde, maar ook naar iets simpelers als weersvoorspellingen.
“We hebben onlangs GraphCast gelanceerd. Dat is ’s werelds meest accurate weervoorspeller en kan dit tot 10 dagen in de toekomst doen”, zegt hij. “En er zijn ook AI-systemen die zich bezighouden met bijvoorbeeld materiële wetenschap, het ontwerp van materialen en nuclear fusion. Het zijn allemaal problemen die we in de bron proberen op te lossen met wiskundige en computerwetenschappelijke AI-systemen die in essentie vergelijkbaar zijn met de LLM’s [Large Language Models, de technologie achter Gemini en ChatGPT, red.] waar de reguliere consument zich mee bezighoudt.”
Duidelijker onderscheid in AI-toepassingen nodig
Ghahramani denkt dan ook dat het goed zou zijn als er duidelijker gecommuniceerd wordt over de verschillende soorten AI.
Op dit moment worden alle soorten over een kam geschoren, maar dat is onterecht, denkt de onderzoeker: “Er is een interessant punt aan generatieve AI. Het is goed in het doen wat mensen ook doen. Denk aan creatieve dingen als teksten schrijven, afbeeldingen maken en video’s schieten. Dat maakt het heel herkenbaar voor mensen. De andere, laten we het niet-menselijke vormen van AI noemen, werken op dezelfde principes, maar voegen iets toe aan het menselijke kunnen. Mijn brein is niet geëvolueerd om eiwitten te vouwen [wat AlphaFold doet, red.] en kan ook geen grote hoeveelheden weerdata opnemen en analyseren. De AI die dat doet is waardevol, denk ik.”
Het feit dat alles tegenwoordig onder artificial intelligence valt is niet alleen een kans, maar ook een gevaar. Er ontstaat langzaam maar zeker een steeds negatiever tegengeluid over de opkomst van de technologie. Hieronder vallen bijvoorbeeld de AI-'doomers' die voorspellen dat we over een paar jaar in een Terminator-achtige toekomst leven waarin de mensheid ondergeschikt is aan de robots die het zelf ontwikkeld heeft.
Maar ook de wat meer genuanceerde discussie kan volgens Ghahramani verkeerd vallen. “Ik denk dat we op sommige punten anders over AI moeten gaan praten”, zegt hij verwijzend naar de negativiteit die aan het ontstaan is rond generatieve AI. “Ik maak me zorgen dat we hierdoor om de verkeerde redenen misschien wel de genezing van ziektes, het tackelen van delen van het klimaatprobleem of het beter begrijpen van het universum, uitstellen.”
“Als we om de verkeerde redenen bang worden voor de toekomst, kan dat menselijk lijden laten toenemen”, zegt Ghahramani.