Privacy/AVG

Ben je aansprakelijk voor wat jouw Chatbot zegt?

By 10 september 2024 No Comments

Een behoorlijk aantal bedrijven maakt gebruik van Chatbots. Chatbots kunnen bedrijven helpen met allerlei interne en externe bedrijfsactiviteiten. Denk met name aan een Chatbot voor de klantenservice. Hoewel de voordelen van Chatbots vaak wel bekend zijn (bijvoorbeeld het verbeteren van klantinteractie), horen bedrijven vaak weinig tot niets over de mogelijke (negatieve) juridische gevolgen. Laten wij daar maar eens bij stilstaan in deze blog.

Chatbot

Een Chatbot is niets meer of minder dan een geautomatiseerde gesprekspartner waarin AI-technologie is verwerkt. Deze systemen combineren AI, machine learning en natuurlijke taalverwerking om vragen te interpreteren, gepaste antwoorden te formuleren en taken autonoom uit te voeren. Zowel kleine als grote bedrijven maken gebruik van dergelijke software. Veelal gaat het goed en horen wij juristen er verder niets over. Maar soms is het anders…

Aansprakelijkheid bij gebruik Chatbot

Stel dat een AI-systeem zoals een Chatbot een fout maakt of anderszins faalt. De bot deelt bijvoorbeeld informatie die niet correct is en de ontvanger van de informatie maakt bij zijn of haar keuze wel gebruik van die foutieve informatie. Is de organisatie die het systeem gebruikt aansprakelijk als uit zo’n fout schade voor een derde voortvloeit? Hier is belangrijk dat bij AI-gebaseerde oplossingen vaak meerdere partijen betrokken zijn. Dat er schade is zal vaak niet zo heel ingewikkeld zijn bij een duidelijke fout of onjuiste informatie, maar wie daarvoor precies aansprakelijk is, kan wel wat ingewikkelder zijn. Welke partij heeft immers schuld (verwijtbaar) en voor welke schade? Is dat het bedrijf dat de Chatbot gebruikt of de producent of ontwikkelaar van het systeem? Als het gaat om een AI-systeem dat aantoonbaar getraind is door de ontwikkelaar met verkeerde informatie, dan zou je kunnen stellen dat de ontwikkelaar aansprakelijk is. Maar ook dan geldt dat de gebruiker een eigen verantwoordelijkheid heeft en op de hoogte moet zijn van de mogelijkheden en de beperkingen van de Chatbot (en goed ingezet moet worden).

Microsoft Tay

Een bekend voorbeeld van hoe het fout kan gaan met een Chatbot, is Microsoft Tay. Microsoft liet haar Chatbot genaamd “Tay” los in de onlinewereld en het ging snel verkeerd. Een bedoeling van Tay was om te converseren met allerlei gesprekspartners en op die manier zelf kon gaan bijleren van de internactie met mensen. Binnen twee dagen bleek dat de Chatbot enorm racistisch geworden was en hele nare dingen de wereld in slingerde. De bot werd offline gehaald. Dat Microsoft hiervan schrok en misschien ook wel vermoedde aansprakelijk te kunnen zijn voor de uitlatingen, was wel duidelijk.

Aansprakelijkheid gebruiker AI

In onze blog van 7 februari 2024 hebben wij al een aantal juridische spelregels benoemd voor het gebruik van AI zoals ChatGPT.

https://www.legal8.nl/gebruik-je-binnen-jouw-bedrijf-chatgpt-of-nadere-ai-houd-dan-rekening-met-de-juridische-spelregels/

Ook voor het gebruik van een Chatbot geldt dat je als gebruiker daarvan aansprakelijk kunt zijn voor de gevolgen. Hoewel er (Europese) wetgeving in de pijpleiding zit, kunnen we ook werken met het aloude Kelderluik-arrest. Zie onze blog van 30 augustus 2023:

https://www.legal8.nl/oud-maar-goud-kelderluik-arrest/

Kort gezegd moet je als organisatie de nodige maatregelen nemen om schade te voorkomen. Hoe je dit precies moet doen en welke maatregelen je moet treffen, is niet in het algemeen aan te geven. Houd je bijvoorbeeld aan de ethische richtsnoeren van de Europese Unie:

https://op.europa.eu/nl/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1

Houd verder menselijk toezicht op de AI, let op de privacy en neem alleen een Chatbot die aantoonbaar in overeenstemming handelt met de daaraan te stellen (ethische) eisen. Tay is écht niet wenselijk…

Reglement Chatbot

Maak bijvoorbeeld ook met tekst en uitleg duidelijk dat jouw Chatbot écht een bot is en dat foutjes kunnen voorkomen. Hiermee geef je eigenlijk aan dat de gebruikers van de bot niet blindelings moeten vertrouwen op de informatie van de bot en met name niet als het om belangrijke informatie gaat. En als een fout wordt geconstateerd, is het natuurlijk zaak om daar onmiddellijk mee aan de slag te gaan om verdere schade te voorkomen. Maak dus een intern en extern reglement. Zowel voor (potentiële) klanten die er gebruik van kunnen maken als voor medewerkers die ermee bezig zijn.

Een belangrijke regel is dus dat bij het gebruik van AI-chatbots, de eindgebruiker duidelijk geïnformeerd moet worden dat hij of zij in gesprek is met een Chatbot en niet met een mens. Dit vereist dat de aard van de chatbot (de AI-gestuurde aard) vanaf het begin van de interactie duidelijk moet zijn. Bovendien is de AVG van toepassing indien (je met) de Chatbot persoonsgegevens verwerkt. Als je bijvoorbeeld allerlei klantgegevens laat verzamelen, dan heb je op grond van de AVG een informatie- en transparantieverplichting en je moet aan de voorkant duidelijk maken wat je met de Chatbot doet. Gebruik een privacy statement in overeenstemming met de AVG.

Hoe dan ook kun je als gebruiker van een AI-systeem aansprakelijk zijn voor negatieve gevolgen. Hierbij kan het mogelijk zijn om een eventuele claim van jouw klant in te dienen bij de ontwikkelaar / leverancier van de software, maar in dat kader spelen ook mogelijke voorwaarden die je met hen bent overeengekomen. Neem dit onderwerp in ieder geval serieus en zorg ervoor dat je met AI-toepassingen de risico’s kent.

Legal8