- Iedereen in de wereld van artificial intelligence heeft het over zogenoemde AI-agents, maar pionier Yoshua Bengio waarschuwt tegen deze ontwikkeling.
- Volgens Bengio kunnen autonoom opererende AI-modellen voor ‘catastrofale gebeurtenissen’ zorgen.
- Bengio onderzoekt de mogelijkheid om AI-agents te controleren met conventionele systemen.
- Lees ook: We leven in het tijdperk van ‘agentic AI’, volgens de baas van AI-chipmaker Nvidia: dit is wat hij bedoelt
Een pionier op het gebied van kunstmatige intelligentie (AI) probeert deze week op het World Economic Forum in Davos duidelijk te maken dat een nieuwe AI-trend slecht uit kan pakken.
In het bergdorpje in Zwitserland, waar de zakelijke en politieke elite van de wereld deze week bijeenkomt, wordt veel gesproken over wat AI voor de mensheid kan betekenen, hoe het in goede te leiden en of er al tekenen zijn dat de technologie net zo goed kan redeneren als mensen.
Maar het gaat vooral over AI-agents – ofwel AI-programma’s die taken zelfstandig kunnen uitvoeren, zonder dat er een mens bij nodig is. Dit wordt gezien als een stap voor het beloofde summum van AGI, ofwel Artificial General Intelligence. Als AGI behaald wordt, kan een AI-model voor zichzelf nadenken en redeneren op menselijk niveau. Op basis daarvan kan het model autonoom taken uitvoeren en daardoor een economische bijdrage leveren aan de samenleving.
“Alle catastrofale gebeurtenissen met AGI of superintelligentie gebeuren als we agents hebben”, zegt Bengio tegen Business Insider. Volgens hem is het ook mogelijk om AGI te behalen zonder dat agentic-systemen gemaakt worden.
"Alle AI-modellen die worden gebruikt in de wetenschap of medische wereld die echt nuttig zijn voor mensen, zijn niet-agentic", legt Bengio uit. "En we kunnen nog veel meer krachtige systemen bouwen die niet-agentic zijn."
Bengio is een Canadese wetenschapper die met zijn onderzoek op het gebied van deep learning en neurale netwerken de basis voor de huidige AI-hype heeft gelegd. Hij wordt gezien als een van de godfathers Van AI, samen met specialisten zoals Geoffrey Hinton en Yann LeCun.
In tegenstelling tot LeCun, die zich voornamelijk positief uitlaat over de ontwikkeling van AI, spreken Bengio en Hinton vooral over de gevaren die de technologie met zich mee kan brengen en over hoe deze aangepakt kunnen worden.
Een toekomst met AI-agents
Na twee jaar testen zien AI-bedrijven een mogelijke manier om geld te verdienen met deze technologie in de vorm van AI-agents. De eerste varianten hiervan zouden dit jaar nog hun steentje bij kunnen dragen aan de samenleving.
Vorig jaar toonde AI-startup Anthropic al de eerste testversie van een AI-agent die een computer kon overnemen en daarop taken kon uitvoeren. OpenAI toonde afgelopen donderdag een soortgelijke agent genaamd Operator. In de demo die getoond werd kon de agent reserveringen bij restaurants plaatsen en boodschappen klaarzetten. Ook Google heeft een soortgelijke tool getoond.
Het is belangrijk om te beseffen dat bovenstaande modellen nog in de testfase zijn. Alleen OpenAI heeft zijn agent publiekelijk beschikbaar gemaakt onder het 200 dollar per maand kostende Pro abonnement. En net als met alle ander AI-introducties, blijkt ook nu weer dat technologie in de praktijk vele malen minder goed presteert dan in de demo werd verkondigd. Vooralsnog zijn de agents langzamer en vooral duurder dan mensen en hebben ze in veel gevallen nog aansturing nodig van mensen.
Het probleem dat Bengio signaleert, is dat techbedrijven blindelings AI-agents blijven bouwen als onderdeel van een felle concurrentiestrijd. Hij stelt dat bedrijven en landen zich zorgen maken dat anderen agentic AI kunnen leveren, voordat zij dat doen.
"Het goede nieuws is dat als we niet-agentic systemen maken, deze ingezet kunnen worden om agentic systemen te controleren", zegt hij. De uitdaging hierbij is dat het bouwen van complexe monitoringsystemen die hiervoor nodig zijn, aanzienlijke investeringen vereisen.
Daarnaast roept Bengio op tot nationale regelgeving die AI-bedrijven ervan weerhoudt om agentic modellen te bouwen. Dit zou alleen mogelijk moeten zijn als partijen vooraf kunnen aantonen dat hun model veilig is.
"We kunnen de veilige en kundige AI verder ontwikkelen, maar we moeten de risico's wel in acht nemen en op wetenschappelijk niveau weten waar ze vandaan komen. Vanaf dat punt kunnen we de technologische investeringen doen die nodig zijn om ervoor te zorgen dat de ontwikkeling in goede banen verloopt, voordat het te laat is en we dingen bouwen die ons kunnen verwoesten", aldus Bengio.
Rode vlag voor AI agents
Voordat Bengio met Business Insider sprak, nam hij samen met CEO Demis Hassabis van Google DeepMind deel aan een panel dat over veilige AI sprak.
"Ik wil een rode vlag ophouden. Dit is het gevaarlijkste pad", zei Bengio tegen het publiek dat vragen stelde over AI agents. Hij verwees hierbij naar AI die ingezet kan worden voor wetenschappelijke ontdekkingen. Hierbij gaf hij DeepMinds doorbraak op het gebied van proteïnevouwen als voorbeeld om aan te tonen dat AI een significante impact kan hebben zonder dat het agentic wordt.
Bengio zei ook dat hij gelooft dat het mogelijk is om het niveau van menselijke redeneren te behalen zonder agents. "Het is een gok, dat weet ik", zei hij. "Maar ik denk dat het een gok is die we moeten nemen."
Hassabis was het met Bengio eens dat er stappen genomen moeten worden om de risico's te berken. Zo zouden er op het gebied van cyberveiligheid beveiligingen ingesteld moeten worden, en zouden AI-agents uitvoerig in simulaties getest moeten worden voordat het publiek ermee aan de slag kan. De CEO van DeepMind gaf daarin ook toe dat dit alleen maar werkt als iedereen het op dezelfde manier doet.
"Helaas is er een economische druk die bepaalt dat mensen hun systemen graag agentic zien worden", stelde Hassabis. "Als je een vraag stelt als "stel een goed restaurant voor", waarom zou je dan niet willen dat de AI-module gelijk een tafel kan boeken?"