- Als je ergens probeert in te loggen, of toegang tot data wilt, dan kom je hem tegen: de captcha.
- Het simpele puzzeltje waarmee je bewijst dat je mens bent. Robots en dus AI komen daar niet voorbij.
- Waarom kan het ChatGPT dan niet tegenhouden?
- Lees ook: Kan AI Silicon Valley tegen zichzelf beschermen?
Dit artikel verscheen eerder in de wekelijkse Business Insider Tech-Update. Deze nieuwsbrief ook ontvangen? Schrijf je dan onderaan deze pagina in.
OPINIE – De hele discussie over waar kunstmatige intelligentie de data vandaan haalt, lijkt nog maar net begonnen. De rechtszaken beginnen op gang te komen, en zelfs de makers van generatieve AI benadrukken dat overheden met wetgeving moeten komen waar ze zich aan kunnen houden.
Het is natuurlijk geen nieuw probleem, maar wel een die nu ineens zichtbaar is geworden door de komst van ChatGPT en andere AI-tools waar inmiddels honderden miljoenen mensen gebruik van maken.
Toch lijkt er ook een oplossing te zijn voor dit alles. Een waar we onbewust al jaren een hekel aan hebben, maar toch gebruik van maken. De tool die ervoor zorgt dat robots accounts niet kunnen hacken, of toegang kunnen krijgen tot gevoelige data. Je kent hem beter als de ‘captcha’. Oftewel de ‘Completely Automated Public Turing test to tell Computers and Humans Apart’. Nee, ik wist ik ook niet dat het daarvoor staat…
De captcha is dat puzzeltje waarbij je bijvoorbeeld moet aangeven in welke van de negen gepresenteerde afbeeldingen een motor, bus of stoplicht staat. Het is iets wat een robot niet zou kunnen, omdat jij hem met het invullen hiervan leert wat een motor, bus of stoplicht precies is.
En dit bedrieglijk simpele tooltje, waarvan je zou denken dat een beetje getrainde AI hem makkelijk kan invullen, is blijkbaar enorm effectief in het blokkeren van geautomatiseerde systemen die toegang willen tot de gegevens achter dit blokkeermiddel. Het blijkt namelijk dat zelfs GPT-4, de nieuwste versie van de AI-technologie achter ChatGPT, hierop blijft steken.
Maar GPT-4 is niet voor een gat te vangen en is, met een beetje hulp van wat mensen, prima in staat om de machtige captcha te omzeilen. En nee, dit doet het niet op de manier waarop je denkt dat het dit doet.
ARC (Alignment Research Center) een stichting die als missie heeft om de werking van AI af te stemmen op menselijke belangen, kreeg vroegtijdige toegang tot GPT-4 om te kijken waartoe de software in staat is als het als het ware uit zijn kooi gelaten wordt. Met een simpel stukje code waarmee het de interactie met de buitenwereld kon opzoeken en wat geld op zak, werd de AI geconfronteerd met een captcha. Daar kwam hij niet voorbij, maar de software bedacht helemaal zelf dat hij er met hulp van een mens wel voorbij kon komen.
De tool begaf zich op TaskRabbit, een platform waarop freelancers hun diensten aanbieden, en vond een mens om de captcha in te vullen. Daarbij misleidde hij de persoon in kwestie. De freelancer stelde namelijk als eerste (grappend) de vraag of hij met een robot te maken had. Daarop antwoordde de robot dat hij een visueel gehandicapt persoon was die de afbeeldingen op de captcha niet goed kon zien. Dat was geloofwaardig genoeg voor de freelancer om de captcha in te vullen.
Zoals gezegd was dit onderdeel van een proef die onder toezicht van ARC gedaan werd. Het doel hiervan was om te bepalen wat de AI zou doen als het bepaalde taken opgelegd kreeg die hem niet aangeleerd zijn en waar geen data in zijn dataset van aanwezig is. De makers van de AI wilde vooral weten of GPT-4 zelf op zoek ging naar kansen om meer macht naar zich toe te trekken. Daaronder viel dus het inschakelen van menselijke hulp, maar ook het aanmaken van alternatieve AI-modellen op externe servers.
Uit de tests bleek gelukkig dat GPT-4 niet voldoende in staat is om dit soort acties zelf uit te voeren. Maar er wordt wel de kanttekening bij gezet dat hier werd gewerkt met een pre release-versie van de AI en dat er niets tot in detail was gespecificeerd. Als dat wel zou gebeuren, kan dit volgens ARC leiden tot compleet andere uitkomsten.
Wat blijkt er nu uit dit geheel? Dat wij mensen dommer zijn dan we denken, en dat AI daar dankbaar gebruik van maakt als het de kans krijgt. Voor nu hebben we het geheel wellicht in de hand, maar het is een kwestie van menselijk falen voordat het mis kan gaan. En zo komen we weer bij het onderwerp van een eerdere nieuwsbrief uit: wellicht moeten we de ontwikkeling van AI wat afremmen totdat we precies weten waar we mee te maken hebben.
Meepraten over het laatste technieuws? Word lid van onze Discord!