Grammarly, de populaire schrijfhulp, gebruikt de namen en identiteiten van auteurs om zijn nieuwe AI-functie ‘Expert Review’ geloofwaardigheid te geven, zonder dat die auteurs daar toestemming voor hebben gegeven. Dit blijkt uit onderzoek van onder andere The Verge en Wired. De functie suggereert bijvoorbeeld dat een tekst is “beoordeeld door” een bekende journalist of expert, waarbij de naam van die persoon wordt getoond. Dit gebeurt zonder dat die persoon daarvan op de hoogte is of ermee heeft ingestemd. Voor ondernemers die zorgvuldig omgaan met hun reputatie en die van anderen, is dit een belangrijk signaal over hoe AI-tools persoonlijke data kunnen inzetten.

Hoe werkt de functie en wat is het probleem?

De ‘Expert Review’-functie analyseert een tekst en kan dan een suggestie doen zoals: “Overweeg het perspectief van [Naam van Bekende Auteur].” De naam van de auteur wordt gebruikt om de AI-suggestie autoriteit te verlenen. Het probleem is drieledig. Ten eerste is er geen toestemming gevraagd aan de personen wiens naam wordt gebruikt. Ten tweede kan dit de indruk wekken dat de genoemde persoon daadwerkelijk achter de suggestie staat of de tekst heeft beoordeeld, wat niet het geval is. Ten derde, volgens de berichtgeving, biedt Grammarly vooralsnog alleen een ‘opt-out’ mogelijkheid. Dit betekent dat de standaardinstelling is dat je naam wordt gebruikt, tenzij je zelf actie onderneemt om dit te voorkomen.

Wat zegt Grammarly er zelf over?

Na de ontstane ophef heeft Grammarly gereageerd. Het bedrijf heeft volgens The Verge geen excuses aangeboden en de functie niet teruggetrokken. In plaats daarvan heeft het een proces aangekondigd waarbij mensen kunnen verzoeken dat hun naam niet wordt gebruikt. Dit is een reactief beleid: de verantwoordelijkheid om je gegevens te beschermen ligt bij het individu, niet bij het bedrijf dat de gegevens gebruikt. Voor professionals is dit een praktische les in het lezen van servicevoorwaarden en het begrijpen van het standaard ‘opt-in’ beleid van veel AI-diensten.

Wat betekent dit voor jou als ondernemer?

Dit voorbeeld illustreert een breder punt over AI-tools en data-ethiek. Tools die worden gevoed met publieke data, zoals artikelen en boeken, kunnen elementen uit die data – zoals schrijfstijl, naam of expertise – gaan gebruiken voor commerciële diensten. Als je zelf publiceert, loop je het risico dat je identiteit op een vergelijkbare manier wordt ingezet. Aan de andere kant, als je dergelijke tools gebruikt, is het goed je af te vragen welke bronnen de autoriteit van de suggesties onderbouwen. Is het een algemeen AI-model, of claimt het de specifieke stem of expertise van een persoon te gebruiken?

Hoe kun je dit vandaag toepassen?

Een mogelijke stap is om je bewust te worden van de voorwaarden van de AI-tools die je gebruikt. Controleer of er beleid is over het gebruik van trainingsdata en of er een opt-out mogelijkheid is voor creators. Voor auteurs of professionals wiens werk publiekelijk beschikbaar is, zou je kunnen overwegen om contact op te nemen met diensten zoals Grammarly om te informeren naar hun opt-out procedure. De praktische toepassing hangt verder af van jouw specifieke situatie. Via geprompt.nl/stel-je-vraag kun je een vraag stellen die we uitwerken tot een artikel op maat.

De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.

Bron: The Verge