- Onder andere Tesla-baas Elon Musk en medeoprichter van Apple Steve Wozniak hebben een brief ondertekend waarin wordt opgeroepen te stoppen met AI-machines te lanceren.
- Er zou nog geen manier zijn binnen de maatschappij om eventuele fouten op te vangen.
- De komende zes maanden zou er niets sterkers dan de GPT 4 gelanceerd moeten worden, schrijven de ondertekenaars.
- Lees ook: OpenAI heeft GPT-4 gelanceerd – dit zijn 5 verbeteringen ten opzichte van de vorige versie van de AI-chatbot.
Meer dan duizend mensen hebben een open brief ondertekend met de oproep een pauze in te lassen bij de ontwikkeling van steeds krachtigere kunstmatige intelligentie (AI). Onder andere Tesla-baas Elon Musk en medeoprichter van Apple Steve Wozniak maken zich zorgen over het gebrek aan vangrails voor het geval dat AI-systemen de maatschappij ontwrichten.
Concreet vragen de ondertekenaars aan ontwikkelaars van AI-systemen om zes maanden lang geen programma’s te bouwen die krachtiger zijn dan GPT 4. Dat is de nieuwste versie van het taalmodel van OpenAI, dat ver gevorderd is met de ontwikkeling van generatieve AI. Daarbij creëren modellen voor kunstmatige intelligentie na eenvoudige aanwijzingen zelf complete teksten of beelden, bijvoorbeeld met de chatbot ChatGPT.
Musk, Wozniak, Israëlische historicus Yuval Noah Harari en andere opstellers van de brief waarschuwen onder andere voor de maatschappelijke gevolgen als veel mensen hun baan verliezen door krachtige AI-systemen. Daarnaast bestaat het risico dat deze programma’s “onze informatiekanalen overspoelen met propaganda en onwaarheden”.
“Moeten we alle banen automatiseren, inclusief het werk dat voldoening geeft? Zouden we niet-menselijk verstand moeten ontwikkelen dat ons uiteindelijk kan overklassen en vervangen? Moeten we het verlies van onze beschaving riskeren? Die beslissingen zouden niet moeten worden overgelaten aan niet-verkozen techmanagers”, staat in de brief.
AI-onderzoekers en onafhankelijk experts zouden volgens de ondertekenaars samen algemene veiligheidsprotocollen moeten opstellen. Dat geheel aan regels, waar onafhankelijk toezicht op moet komen, moet ons ervan verzekeren dat nieuwe modellen voor kunstmatige intelligentie veilig zijn. Tegelijkertijd zouden overheden nieuwe instellingen moeten oprichten met de taak om toe te zien op de ontwikkeling van AI.
"Dit staat niet gelijk aan het opschorten van de ontwikkeling van AI in zijn algemeen, maar eerder een pas op de plaats bij de gevaarlijke wedloop richting steeds grotere, onvoorspelbare modellen met nieuwe capaciteiten", staat in de brief die woensdagmiddag door 1125 mensen was ondertekend.