Als 2023 het jaar van de doorbraak van artificial intelligence (AI) is, dan kan 2024 het jaar worden waarin rechtszaken tegen AI-startups roet in het eten gooien.

Startup Anthropic moet zich verdedigen tegen een claim rond auteursrechten van ’s werelds grootste muziekuitgever en OpenAI, het bedrijf achter de bot ChatGPT, wordt voor de rechter gesleept door onder meer schrijvers van boeken.

Een cruciale kwestie is of het trainen van AI-software met grote databases waar auteursrechtelijk beschermd materiaal bij zit, een vorm van diefstal is. Vervolgens is het de vraag wie er verantwoordelijk is, als AI-tools inbreuk maken op auteursrechten.

Tijdens de eerste developer’s day die OpenAI eerder deze maand organiseerde, droeg het bedrijf een oplossing aan voor de problematiek rond auteurrechten met de aankondiging van een ‘Copyright Shield’.

De belofte was dat OpenAI juridische kosten vergoedt van zakelijke klanten die worden aangeklaagd voor inbreuk op auteursrechtelijk beschermde materialen. Vanzelfsprekend is dit beperkt tot materialen die door de producten van OpenAI zijn gegenereerd.

"We kunnen onze klanten beschermen en de gemaakte kosten vergoeden, als je te maken hebt met juridische claims rond auteursrecht ", zei CEO Sam Altman van OpenAI.

Wie betaalt bij schending auteursrecht door gebruik van AI-tools?

Maar Anthropic, een grote concurrent van OpenAI, vliegt het probleem heel anders aan. Deze startup is opgericht door ex-werknemers van OpenAI en kreeg miljarden dollars aan investeringen van Google en Amazon.

Anthropic stelt dat het gebruik van auteursrechtelijk beschermde materialen onder de Amerikaanse 'Fair Use'-wet zou moeten vallen. De AI-startup is overigens niet de enige die er zo over denkt.

Anthropic, bekend van chatbot Claude, stelt dat content alleen gebruikt wordt voor statistische analyses van het eigen AI-model en niet zichtbaar mag zijn als output bij vragen van gebruikers. Hiermee zou het inderdaad onder de Fair Use-wet kunnen vallen, aangezien deze zegt dat content gekopieerd mag worden voor onder andere onderzoeksdoeleinden.

"Kopiëren is voor functionaliteit, niet voor het kopiëren van creativiteit", zegt jurist Janel Thamkul van Anthropic. Ze vergelijkt het met een zaak uit 1992 waarin gamebedrijven Sega Enterprises en Accolade het tegen elkaar opnamen.

Thamkul stelt dat het AI-model van Anthropic zo is ontwikkeld, dat het geen creatieve werken produceert die inbreuk maken op iemands auteursrecht. "De outputs bestaan niet simpelweg uit bij elkaar gefrommelde werken, of een collage van bestaande tekst."

Maar als er wel sprake is aansprakelijkheid, dat ligt het risico wat Anthropic betreft bij de eindgebruiker. Thamkul: "Verantwoordelijkheid voor een specifieke output rust bij degene die de prompt invoerde waarmee hij tot stand is gekomen. Dat is de eindgebruiker". Ze zegt ook: "We komen in actie, als gebruikers herhaaldelijk regels overtreden. Dat kan leiden tot het opheffen van accounts."

Het standpunt van Anthropic is gebaseerd op een klassieke tactiek van "het verleggen van aansprakelijkheid", zegt hoofd juridische zaken Erika Fisher van Atlassian, een maker van productiviteitssoftware en klant van OpenAI.

Fisher maakt deel uit van een werkgroep binnen Atlassian die onderzoekt hoe ze klanten kunnen informeren over mogelijke juridische problemen bij het gebruik van generatieve AI. Ze zegt dat het Copyright Shield van OpenAI vooral nuttig is voor grote bedrijven die AI-tools willen inzetten, omdat het aansprakelijkheidsrisico's afdekt.

Maar het blijft de vraag of het Copyright Shield stand houdt. Als rechters in lopende zaken oordelen dat generatieve AI-bedrijven auteursrechten moeten betalen voor het trainen van AI-software, gaat dat ze enorm veel pijn doen.

"Er lopen nog diverse rechtszaken. Als die nadelig uitpakken voor OpenAI, weet ik niet zeker of ze hun businessmodel kunnen voortzetten", zegt Fisher. "Ze hebben dan grotere problemen dan eventuele kosten voor het schadeloos stellen van gebruikers."

LEES OOK: Wat is ethische AI eigenlijk? 2 experts bespreken wat nodig is om het vertrouwen in kunstmatige intelligentie te borgen