De Europese Unie gaat ChatGPT onder het strengste toezichtsregime van de Digital Services Act plaatsen, wat betekent dat bedrijven die de tool in hun processen gebruiken, rekening moeten houden met nieuwe verplichtingen rond transparantie en risicobeheer. Dit kan directe gevolgen hebben voor hoe je AI inzet voor klantenservice, marketing of interne automatisering.

Wat er aan de hand is

De Europese Commissie staat op het punt om de zoekfunctie van ChatGPT formeel aan te merken als een “Very Large Online Search Engine” (VLOSE) onder de Digital Services Act (DSA). Dit is dezelfde zware toezichtcategorie waarin bijvoorbeeld Google Search al valt. De beslissing, gemeld door Bright op basis van bronnen, betekent dat OpenAI, het bedrijf achter ChatGPT, aan extra verplichtingen moet voldoen. Deze verplichtingen zijn gericht op het beheersen van systemische risico’s, zoals de verspreiding van desinformatie, en het vergroten van de transparantie over hoe het AI-systeem werkt. De DSA is de nieuwe Europese wet die grote online platforms reguleert.

Wat dit betekent

Voor Nederlandse ondernemers en professionals die ChatGPT in hun werk gebruiken, verandert er in directe zin niets aan de toegang tot de tool. De verplichtingen rusten op OpenAI. Indirect kan deze stap echter wel gevolgen hebben. Om aan de strenge EU-regels te voldoen, zou OpenAI bepaalde functies kunnen aanpassen of beperken voor gebruikers in Europa. Het kan ook betekenen dat er meer inzicht komt in de beperkingen en risico’s van het systeem, wat bedrijven helpt om weloverwogen keuzes te maken. Voor sectoren die sterk leunen op AI-gegenereerde content voor marketing of klantinteracties, onderstreept deze ontwikkeling het belang van een bewust AI-beleid. De EU zet hiermee een belangrijke stap in het vormgeven van het kader waarbinnen bedrijfsmatig gebruik van generatieve AI plaatsvindt.

Hoe je dit kunt toepassen

De praktische toepassing hangt af van jouw situatie. De nieuwe regels zijn vooral een signaal om het gebruik van AI-tools zoals ChatGPT bewuster en meer gestructureerd in te bedden in je bedrijfsvoering. Het is een moment om na te denken over hoe afhankelijk je bent van één specifieke tool en wat je doet met de output.

Als je ChatGPT gebruikt voor klantcommunicatie, zoals het opstellen van antwoorden op e-mails of het genereren van chatberichten, is het verstandig om altijd een menselijke controlelaag aan te houden. Documenteer intern welke prompts je gebruikt en check de output op nauwkeurigheid en toon, zeker voor gevoelige onderwerpen.

Als je de tool inzet voor het maken van marketingcontent of website-teksten, overweeg dan om je processen aan te passen. Je zou kunnen beginnen met het bijhouden van welke content AI-gegenereerd is, ook al is dat nu niet verplicht. Dit creëert transparantie voor jezelf en maakt je minder kwetsbaar als er in de toekomst specifieke regels voor AI-content komen.

Als je ChatGPT integreert in eigen software of automatiseringen via de API, is het raadzaam om de officiële communicatie van OpenAI over eventuele aanpassingen voor de EU-markt in de gaten te houden. Zorg dat je niet volledig afhankelijk bent van één specifieke output of functie die mogelijk kan veranderen.

Voor alle gebruikers geldt: zie dit nieuws als een aanleiding om met je team te spreken over richtlijnen voor AI-gebruik. Stel eenvoudige afspraken op over waarvoor het wel en niet gebruikt mag worden, en bespreek de risico’s van hallucinaties of onjuiste informatie. Dit maakt je bedrijf weerbaarder, ongeacht hoe de regelgeving zich precies ontwikkelt.

Bron: Bright