In januari vroeg een werknemer van Microsoft via een intern forum of het gebruik van vraagbaak ChatGPT, of andere producten op basis van kunstmatige intelligentie van softwarebedrijf OpenAI, gebruikt mochten worden voor werkdoeleinden.

Vanuit het technologieteam van Microsoft kwam daarop de aanbeveling dat het gebruik van ChatGPT toegestaan was, mits men geen gevoelige informatie met de chatbot deelt.

“Deel alsjeblieft geen gevoelige data met een product van OpenAI. Dit kunnen ze mogelijk gebruiken voor training in toekomstige modellen”, schreef de senior ingenieur in een reactie die is ingezien door Insider.

De plotselinge wereldwijde aandacht voor ChatGPT zorgt ervoor dat sommige bedrijven hun werknemers waarschuwen over het gebruik van de chatbot en de mogelijke toekomstige problemen die erbij komen kijken.

Microsoft valt hier vooral in op, omdat het een grote investeerder in de startup OpenAI is. Afgelopen maand liet Microsoft nog weten dat het 10 miljard dollar in de maker van software op basis van kunstmatige intelligentie pompt. Daarnaast is de softwaregigant ook al begonnen om ChatGPT en andere AI-technologie van OpenAI in eigen softwareproducten te integreren, waaronder Bing en Office.

Maar de relatie tussen de twee bedrijven kan gecompliceerd worden, want beide partijen kunnen mogelijk profiteren van de trainingsdata van OpenAI, stelt Vincent Conitzer, directeur van een laboratorium voor kunstmatige intelligentie van de Carnegie Mellon University.

Het gevaar schuilt hem in werknemers die zonder erbij na te denken geheime bedrijfsinformatie, zoals bijvoorbeeld beschermde softwarecode, in de chatbot invoeren met de vraag hoe ze dit zouden kunnen verbeteren.

ChatGPT kan deze data intern verwerken om het eigen softwaremodel ermee te verbeteren. Dat zou ervoor kunnen zorgen dat een versie van deze geheime data in de toekomst naar buiten komt bij andere gebruikers van ChatGPT.

"Mensen kunnen contracten ondertekenen of op andere manieren gemotiveerd worden om gevoelige informatie niet te delen. Maar zogenoemde 'large language models', de specifieke AI-technologie waar ChatGPT mee werkt, hebben geen weet van dergelijke clausules rond beschermde informatie", zegt Conitzer.

Een woordvoerder van Microsoft wilde geen commentaar geven en OpenAI verwees naar de FAQ-pagina van ChatGPT waarin de privacywaarden worden besproken.

Lees ook: Wordt jouw persoonlijke of vertrouwelijke informatie gebruikt om ChatGPT te trainen?

Amazon kampt met dezelfde problemen

Kort nadat ChatGPT publiekelijk toegankelijk werd, stelden werknemers van techreus Amazon al de vraag of ze ChatGPT mochten gebruiken. Een interne bedrijfsjurist waarschuwde daarop dat werknemers geen gevoelige bedrijfsgegevens, waaronder ook de broncodes waar programmeurs aan werkten, mochten delen met de chatbot.

"Dit is belangrijk, want jouw invoer kan gebruikt worden als trainingsdata voor toekomstige versies van ChatGPT. En wij willen niet dat toekomstige resultaten onze data bevatten of erop lijken", schreef de jurist. Daarbij gaf ze aan dat ze al voorbeelden had gezien waarbij antwoorden van ChatGPT leken op bestaande materialen.

Wie is verantwoordelijk?

Op dit moment wordt de verantwoordelijkheid bij werknemers neergelegd. Het is nog niet duidelijk wat Microsoft en OpenAI gaan doen om dit probleem aan te pakken.

"Het moet nog duidelijk worden hoe dit soort situaties worden aangepakt. Is het de verantwoordelijkheid van werknemers om geen gevoelige informatie te delen, of ligt de verantwoordelijkheid bij OpenAI om voorzichtig met deze data om te gaan, of is het een combinatie van de twee?" stelt Conitzer. "Microsoft heeft, als een van de leiders in de techindustrie, waarschijnlijk een grote invloed op de gang van zaken."

In de gebruiksovereenkomst van OpenAI staat dat alle input en output die door de gebruikers en ChatGPT wordt gegenereerd, gebruikt mag worden voor trainingsdoeleinden. Daarbij vermeldt het bedrijf wel dat het alle persoonsgegevens uit deze data verwijderd.

Maar het is bijna onmogelijk voor OpenAI om persoonlijke data te identificeren en te verwijderen, omdat het zo enorm hard groeit, zegt computationeel taalkundige Emily Bender van de University of Washington tegen Insider. Bedrijfsmatige intellectuele eigendommen vallen waarschijnlijk ook niet onder die persoonlijke informatie, zegt ze.

"Open AI is verre van transparant over hoe ze data gebruiken. Maar als het wordt ingezet voor trainingsdoeleinden, vind ik het logisch dat bedrijven er vraagtekens bij zetten. Bij gebruik van ChatGPT wordt pas maanden later duidelijk of gevoelige bedrijfsgegevens worden verwerkt in nieuwe antwoorden. Die kunnen mogelijk worden losgepeuterd met slimme vragen aan de chatbot", legt ze uit.

LEES OOK: AI-chatbot die je laat praten met historische figuren, slaat behoorlijk vreemde taal uit: Heinrich Himmler zou ‘spijt hebben’ van de holocaust