- Iedereen lijkt het erover eens: kunstmatige intelligentie moet gereguleerd worden, anders kan het wel eens gigantisch uit de hand lopen.
- Zelfs de makers van de technologie trekken aan de bel, maar het blijft hier vooral bij woorden en geen daden.
- Kan er een andere motivatie voor gewenste regulering zijn?
- Lees ook: Het is niet zeker of generatieve AI blijft
Dit artikel verscheen eerder in de wekelijkse Business Insider Tech-Update. Deze nieuwsbrief ook ontvangen? Schrijf je dan onderaan deze pagina in.
OPINIE – De afgelopen weken stonden voor de makers van verschillende soorten kunstmatige intelligentie in het teken van het bedelen om regulering vanuit verschillende overheden. De ontwikkeling van AI zou zo snel mogelijk aan bepaalde regels moeten voldoen, anders zou het wel eens volledig uit de hand kunnen lopen.
Het lijkt in eerste opzicht natuurlijk een prachtig gebaar van onder andere Sam Altman, CEO van OpenAI, om zichzelf en de technologie die zijn bedrijf ontwikkelt open te stellen voor het volgen van regels vanuit overheden. Maar als hij en zijn concullega’s er zo stellig op zijn dat er regels moeten komen, waarom willen ze dan zo afhankelijk zijn van externe partijen?
Als AI-bedrijf zou je, ook zonder inmenging van een overheid, jezelf aan bepaalde regels en standaarden kunnen houden. Je hoeft dan niet te wachten tot die overheid pas over maanden, of misschien zelfs jaren je diezelfde regels oplegt. Met andere woorden, waarom zou je bij een overheid aan de bel trekken als je het gigantische probleem ook zelf (deels) kunt oplossen?
Natuurlijk doen de ontwikkelaars dit allemaal wel tot op zekere hoogte. OpenAI heeft zogenaamde ‘guard rails’ in acht genomen waardoor ChatGPT bijvoorbeeld niet zomaar mensen kan gaan inhuren om langs de vervelende Captcha’s te komen die hem tegenhouden om bij bepaalde data te komen of om acties te kunnen uitvoeren. Maar dat is blijkbaar niet voldoende om een eventuele AI-ramp te voorkomen. Anders zouden de makers niet bij de overheden aan de alarmbellen trekken.
Zou het dan misschien kunnen dat AI-bedrijven een ander motief hebben om zo aan te dringen op regulerende wetgeving? Het is natuurlijk niet helemaal gek om te denken gezien het gebrek aan beperkende actie bij de bedrijven zelf. Het tegendeel lijkt zelfs waar. De beperkingen worden stukje bij beetje verder opgeheven. Zo kreeg Bing onlangs weer meer mogelijkheden en kunnen gebruikers nu weer langere gesprekken aangaan met de bot, terwijl het hier juist door in opspraak was gekomen.
Er gaat dan ook een theorie rond op het internet dat AI-bedrijven de regulering vanuit de overheid liever gisteren dan vandaag zien om een soort status quo op de markt te bewerkstelligen. De regulering zou namelijk op basis van de huidige status van AI-technologie worden opgesteld. Dat komt de op wetgeving aandringende partijen perfect uit, aangezien zij juist nu de grootste spelers zijn. Met de regulering zouden ze deze positie extra verstevigen en makkelijker kunnen behouden.
Als je de huidige staat van AI als het ware bevriest, dan is het voor de concurrentie ineens veel lastiger om de marktleiders voorbij te streven met nieuwe en experimentelere varianten van chatbots en beeldgeneratoren. Als het gebruik van grote datasets bijvoorbeeld lastiger wordt, wordt de algehele ontwikkeling van vernieuwende AI-modellen flink aan banden gelegd. Iets wat de huidige marktleiders maar al te goed zou uitkomen.
Ook zou de vertragende werking van de regelgeving de AI-bouwers wat ademruimte kunnen geven. Zeker als je kijkt naar de snelheid van de vooruitgang van de technologie en het blijvende gebrek aan een goed verdienmodel. De investeringen in kunstmatige intelligentie rijzen de pan uit, maar deze terugverdienen, laat staan winst maken, zit er op dit moment nog niet in. En als er ineens een concurrent je voorbij streeft, dan kun je het terugverdienen helemaal wel uit je hoofd zetten. Er staat financieel dus enorm veel op het spel.
Ondertussen heeft de EU de eerste plannen voor regulering al klaarstaan voor invoering na de zomer. Het sorteert er alvast op voor door te vragen of techbedrijven willen aangeven welke beelden, teksten en andere content die ze gebruiken en plaatsen, gemaakt is door AI. Het leunt hiervoor op de goodwill van deze bedrijven. Of die meewerken, moet nog blijken.