- Grote techbedrijven vechten tegen nieuwe regels voor het gebruik van auteursrechtelijke beschermde materialen door tools die werken op basis van artificial intelligence (AI).
- Google, Microsoft en OpenAI vinden dat gebruikers verantwoordelijk zijn wanneer AI-tools auteursrechtelijk beschermde materialen tonen.
- De techgiganten vergelijken AI-tools met kopieermachines: kun je die aansprakelijk stellen voor het schenden van auteursrechten?
- Lees ook: Wat is ethische AI eigenlijk? 2 experts bespreken wat nodig is om het vertrouwen in kunstmatige intelligentie te borgen
AI-tools zoals ChatGPT beantwoorden de vragen van gebruikers met behulp grote databases. In die databakken zitten ook auteursrechtelijk beschermde materialen. Grote techbedrijven vinden dat gebruikers van de AI-tools aansprakelijk zijn als in antwoorden van AI-tools auteursrechtelijk beschermd materiaal zichtbaar wordt.
Dit blijkt uit de kritiek die de bedrijven hebben op de plannen van de Amerikaanse Copyright Office (USCO). Deze auteursrechtenwaakhond overweegt nieuwe regels voor de manier waarop de techindustrie met auteursrechtelijke materialen moet omgaan bij het trainen van zogenoemde ‘large language models’ (LLM’s), de technologie waarop de AI-chatbots als ChatGPT werken.
De grote techbedrijven beweren dat er geen nieuwe regels voor generatieve artificial intelligence nodig zijn. Ook stellen ze dat het betalen voor auteursrechtelijk beschermde materialen hun plannen voor de ontwikkeling van AI-software in de war zou schappen