Een grote uitgeverij, Hachette Book Group, heeft besloten een horrorroman genaamd ‘Shy Girl’ niet uit te geven. De reden is dat er zorgen zijn dat de tekst met kunstmatige intelligentie gegenereerd zou zijn. Deze actie is geen technische discussie over AI-detectie, maar een zakelijke en reputatiebeslissing. Het markeert een kantelpunt waar de theoretische vraag “mag dit?” overgaat in de praktische vraag “wat kost dit ons?”.

Voor ondernemers en professionals die content maken – of dat nu marketingteksten, productbeschrijvingen, scripts of rapporten zijn – is dit een concreet geval om van te leren. Het gaat niet langer alleen om de kwaliteit van de output, maar om de transparantie van het proces. Wanneer een partner, klant of het publiek het vertrouwen verliest in de authenticiteit van je content, kan dat directe commerciële gevolgen hebben, zoals het annuleren van een project of contract.

De kern van het risico is vertrouwen

Het incident met ‘Shy Girl’ draait niet om de vraag of AI de tekst kon schrijven, maar om het gebrek aan duidelijkheid erover. De uitgeverij nam de beslissing op basis van zorgen en vermoedens. In de zakelijke wereld, waar relaties en merkreputatie kapitaal zijn, is zo’n wolk van onzekerheid vaak genoeg om actie te ondernemen. Het risico voor een uitgever om een boek te publiceren dat later een reputatieschandaal wordt, weegt zwaarder dan de mogelijke opbrengst van dat ene boek.

Dit principe is breder toepasbaar. Stel je voor dat een marketingbureau AI gebruikt voor een volledige campagne voor een merk dat waarde hecht aan authenticiteit. Als dat uitkomt, kan de klant het vertrouwen opzeggen. Een webwinkel die productreviews genereert, kan door consumenten en platforms worden afgestraft. Het commerciële risico zit hem dus niet in de technologie an sich, maar in het niet managen van de verwachtingen en percepties van je partners en je publiek.

Transparantie wordt een concurrentievoordeel

De les voor ondernemers is dat de strategie rond AI-gebruik net zo belangrijk wordt als de output. Het gaat om beleid en communicatie. In sectoren waar creativiteit, originaliteit en menselijk vakmanschap centraal staan in de waarde-propositie – zoals uitgeverijen, reclamebureaus, ontwerpbureaus, consultancy en journalistiek – wordt transparantie een onderscheidend vermogen. Het kunnen uitleggen hoe je AI gebruikt, voor welke onderdelen, en welke menselijke controle er plaatsvindt, wordt een onderdeel van je dienstverlening.

Dit betekent niet dat je geen AI kunt gebruiken. Het betekent wel dat je moet nadenken over wanneer en hoe je het inzet, en hoe je daarover communiceert. Is het een tool voor brainstormen en eerste concepten, of voor het genereren van het eindproduct? Maak je het expliciet onderdeel van je propositie (“wij gebruiken AI om sneller tot een eerste concept te komen, waarna onze experts het perfectioneren”) of houd je het stil? Het antwoord hangt af van je branche, je klanten en je eigen merkkernwaarden.

Hoe kun je dit vandaag toepassen?

Deze casus biedt vooral aanleiding voor een interne strategische discussie, voordat je voor verrassingen komt te staan. Het is een moment om na te denken over je eigen grenzen en communicatie.

Als je een marketing- of communicatiebureau runt. Overweeg om met je team een intern beleid op te stellen over het gebruik van generatieve AI. Bepaal voor welke fases van een project het acceptabel is (bijvoorbeeld voor idee-generatie of het opstellen van een eerste structuur) en voor welke niet (zoals het schrijven van de definitieve, gepubliceerde copy zonder grondige redactie). Je zou dit beleid vervolgens proactief kunnen delen met (potentiële) klanten als onderdeel van je werkwijze, om vertrouwen te kweken.

Als je een webshop hebt met honderden producten. Het kan verleidelijk zijn AI in te zetten voor het genereren van productbeschrijvingen. Een mogelijke stap is om AI te gebruiken als basis, maar elke beschrijving vervolgens aan te passen met specifieke, echte details over het product die alleen een mens die het product kent kan toevoegen. Je kunt overwegen een disclaimer toe te voegen zoals “Teksten gecontroleerd en aangevuld door onze experts” om transparantie te bieden.

Als je als freelancer schrijft, vertaalt of ontwerpt. Je persoonlijke merk is vaak gebouwd op authenticiteit. Een optie is om voor jezelf een heldere lijn te trekken. Bijvoorbeeld: je gebruikt AI-hulpmiddelen voor research of om door een writersblock heen te komen, maar het uiteindelijke creatieve werk is van jouw hand. In je offertes of gesprekken met klanten kun je hier duidelijk over zijn, wat juist je professionaliteit en integriteit kan benadrukken.

Als je in een sector werkt waar intellectueel eigendom cruciaal is. Denk aan juridische diensten, technisch ontwerp of academisch onderzoek. De risico’s van niet-transparant AI-gebruik kunnen hier groot zijn. Een praktische aanpak is om AI strikt te beperken tot niet-publieke, ondersteunende taken en het gebruik ervan te documenteren in je werkprocessen. Het belangrijkste is dat je je bewust bent van de mogelijke aansprakelijkheid en reputatieschade.

Als je een uitgever of contentplatform beheert. Het ‘Shy Girl’-voorbeeld komt uit jouw wereld. Een logische stap is om je algemene voorwaarden of inzendvoorwaarden aan te passen. Je zou kunnen specificeren dat ingezonden werk door mensen gemaakt moet zijn, of dat elk gebruik van AI-generatie bij het creatieve proces duidelijk gemeld moet worden. Dit stelt je in staat geïnformeerde beslissingen te nemen, net als Hachette, maar dan op basis van vooraf gestelde regels in plaats van achteraf vermoedens.

De praktische toepassing is dus niet het vermijden van AI, maar het ontwikkelen van een bewuste, gecommuniceerde strategie eromheen. Het gaat om risicomanagement en het beschermen van het vertrouwen dat de basis van je zakelijke relaties is.

Bron: Techcrunch