De rechtszaak die journalist Julia Angwin heeft aangespannen tegen Grammarly is een heldere waarschuwing voor elke ondernemer die met AI werkt. Het bedrijf gebruikte de namen en professionele identiteiten van echte journalisten in zijn ‘Expert Review’ AI-functie zonder hun toestemming te vragen. Dit illustreert een fundamentele juridische en ethische valkuil: het commercieel inzetten van iemands identiteit of reputatie via een AI-systeem is niet zomaar toegestaan. Voor jou als ondernemer betekent dit dat je uiterst voorzichtig moet zijn met welke data je AI voedt, vooral als het persoonlijke informatie of iemands ’expertise’ betreft.
Wat is de kern van de zaak?
Grammarly’s ‘Expert Review’ presenteerde AI-suggesties alsof ze afkomstig waren van specifieke, bekende journalisten en experts. Julia Angwin, een van die journalisten, ontdekte dat haar naam en professionele identiteit voor dit doel werden gebruikt zonder dat ze daar ooit toestemming voor heeft gegeven. De class-action claim die ze heeft ingediend, stelt dat dit inbreuk maakt op privacy- en publiciteitsrechten. Simpel gezegd: je mag iemands naam en faam niet zomaar gebruiken om je eigen product te verkopen of geloofwaardiger te laten lijken. Dit geldt ook als een AI die identiteit nabootst of suggereert.
Waarom is dit relevant voor jouw bedrijf?
Deze zaak gaat verder dan alleen Grammarly. Het raakt aan een breed principe dat essentieel wordt in het AI-tijdperk. Veel AI-tools en -diensten beloven ’expert-level’ output of zijn getraind op enorme hoeveelheden data van het internet, waaronder artikelen, social media posts en professionele profielen. Het gevaar schuilt erin dat je, vaak onbewust, een systeem inzet dat de intellectuele arbeid of reputatie van anderen gebruikt voor commercieel gewin. Dit kan leiden tot claims op basis van auteursrecht, maar ook, zoals hier, op basis van het recht op eigen naam en beeld. Het ondermijnt bovendien het vertrouwen van je klanten als blijkt dat je ’experts’ niet echt betrokken zijn.
De praktische risico’s van ‘identity-stealing’ AI
Het risico is niet alleen juridisch. Het is ook een kwestie van reputatie en transparantie. Stel, je ontwikkelt een tool die financieel advies geeft en je noemt daarbij de naam van een bekende beleggingsgoeroe om autoriteit uit te stralen. Zonder zijn medewerking is dat misleidend voor je gebruikers en kan het leiden tot een zaak zoals deze. Hetzelfde geldt voor het trainen van een interne AI op klantgesprekken, portfolio’s of andere persoonlijke data zonder duidelijke afspraken. De grens tussen inspiratie opdoen uit publieke bronnen en het ongeoorloofd toe-eigenen van iemands identiteit of werk is dun en wordt nu juridisch getest.
Hoe kun je dit vandaag toepassen?
Een mogelijke stap is om bij elke AI-implementatie kritisch te kijken naar de bron van de data of de ’expertise’ die het systeem claimt. Vraag je af: maakt deze tool gebruik van namen, stemmen of specifieke kennis van individuen zonder dat dit transparant is? Een andere optie is om in je voorwaarden of privacyverklaring expliciet te vermelden hoe je AI getraind is en welke bronnen worden gebruikt, om misverstanden voor te zijn. De meest voor de hand liggende suggestie is echter: vraag altijd expliciete toestemming voordat je de identiteit, naam of specifieke output van een persoon gebruikt in je commerciële AI-dienst.
De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.
Bron: The Verge