Iedereen heeft de naam ChatGPT inmiddels wel voorbij horen komen. ChatGPT is een zelflerende artifical intelligence tool, ontwikkeld door het bedrijf OpenAI. Het doel is tekst genereren voor de gebruiker. Als gebruiker stel je een vraag, ChatGPT doet z’n ding en er rolt een antwoord uit. Leuk tijdverdrijf voor een vrije middag, maar ook de zakelijke wereld is geïnteresseerd om bijvoorbeeld efficiëntie te verhogen. Men zoekt de laatste tijd dan ook steeds vaker de grenzen van ChatGPT op: wanneer is het nog nuttig en wanneer wordt het een risico?
Teskt: Laura Monhemius
Welke risico’s zijn er?
Zoals bij veel innovaties levert ook ChatGPT de nodige red flags op. OpenAI checkt namelijk niet of de antwoorden op vragen van gebruikers kloppen en al helemaal niet wat de gebruiker vervolgens met die antwoorden doet. Zo was er in Australië gedoe over de claim van ChatGPT dat de burgemeester van het plaatsje Hepburn Shire betrokken zou zijn bij een omkopingsschandaal. Dat bleek niet te kloppen. Verwijdert OpenAI de foutieve informatie niet uit de dataset, dan sleept de burgemeester het bedrijf voor de rechter wegens smaad.
Ook op het gebied van privacy is ChatGPT negatief in het nieuws geweest. Zo heeft de Italiaanse privacy-toezichthouder GPDP de tool tijdelijk verboden. De GPDP stelde dat ChatGPT de privacywet AVG (Algemene verordening gegevensbescherming) niet naleeft, waardoor de privacy van betrokkenen werd geschonden. ChatGPT leert namelijk van publieke informatie, waaronder persoonsgegevens. De GPDP was van mening dat er problemen waren rondom de grondslag, dat er geen goede mogelijkheden waren voor betrokkenen om bezwaar te maken tegen de verwerking van hun gegevens en dat OpenAI onvoldoende transparant was. Het verbod is inmiddels weer opgeheven: OpenAI heeft een opt-outformulier en -knop toegevoegd en de privacyverklaring uitgebreid met onder andere meer informatie over het gerechtvaardigd belang.
Tot slot heb je bij gebruik van ChatGPT ook auteursrechtelijke risico’s. In Duitsland hebben zo’n 140.000 auteurs en performers een brief opgesteld waarin ze de Europese Unie verzoeken om strengere regels voor auteursrechtschendingen en het gebruik van AI in te stellen. De beweging wil meer duidelijkheid over de verantwoordelijkheid, aansprakelijkheid en vergoedingen bij het onbevoegde gebruik van auteursrechtelijk beschermd werk.
Wanneer ben je aansprakelijk?
ChatGPT zorgt dus voor verschillende juridische vraagstukken en risico’s. En wie is er nou aansprakelijk als het fout gaat? Lang verhaal kort: aansprakelijkheid zal grotendeels bij de gebruiker liggen. OpenAI heeft zichzelf goed ingedekt via zijn gebruikersvoorwaarden. Die voorwaarden zijn praktisch gezien een overeenkomst tussen de gebruiker en OpenAI. De gebruiker moet zich bij het gebruik van de dienst aan deze voorwaarden houden.
Zo stellen de gebruiksvoorwaarden bijvoorbeeld dat de gebruiker alle rechten heeft op diens ‘content’. Dit gaat over zowel de input die de gebruiker invoert, als over de output die de tool genereert. De definitie die de gebruiksvoorwaarden geven aan ‘content’ is belangrijk in het kader van aansprakelijkheid. In het vrijwaringsartikel staat namelijk dat de gebruiker OpenAI schadeloos moet stellen voor alle vorderingen die OpenAI ontvangt over het gebruik van de AI-tool. Dat gaat over de content die de gebruiker heeft gegenereerd, schendingen van de gebruikersvoorwaarden of schendingen van de wet.
Oftewel: als iemand schade ondervindt door jouw gebruik van ChatGPT en vervolgens OpenAI aanklaagt, dan ben je verplicht om alle kosten van OpenAI te vergoeden. OpenAI erkent zelf geen aansprakelijkheid voor enige indirecte schade. Wel staat het bedrijf garant voor de licentiekosten die een gebruiker heeft betaald tot een maximum van 100 dollar, maar dat stelt natuurlijk niet zoveel voor.
Nu is het vaste jurisprudentie dat een vrijwaringsclausule in principe gewoon geldig is, tenzij die echt onredelijk is. ‘Onredelijk’ betekent dat de kans groot is dat de gebruiker vrijwel altijd volledig aansprakelijk zal zijn voor alle schade. Besluit jij echter om foute content te verspreiden, dan is daar eigenlijk geen verweer tegen. ‘Ik wist het niet’ maakt geen kans. Mocht de voornoemde burgemeester bijvoorbeeld toch OpenAI aanklagen, dan zal dit het bedrijf waarschijnlijk niks kosten, omdat de schade op de gebruiker verhaald kan worden.
Conclusie: wees voorzichtig
Als gebruiker heb je redelijk wat verantwoordelijkheid voor het gebruik van ChatGPT. Doe dus altijd goed onderzoek of de antwoorden van de tool, al zijn ze nog zo mooi geschreven, geen inbreuk maken op andermans rechten. Vooral als je die antwoorden wilt publiceren of delen. Sam Altman, ceo van OpenAI, zei zelf al: ‘ChatGPT is nu nog extreem gelimiteerd, maar de tool is op sommige vlakken goed genoeg om geweldig te lijken.’ Zorg dus dat je niet afhankelijk wordt van de tool, houd rekening met je eigen verantwoordelijkheid.
Laura Monhemius is senior legal consultant bij ICTRecht.
Er is op dit moment 0 keer gereageerd op:
ChatGPT en aansprakelijkheid
Je kunt niet meer reageren op dit artikel.