De Europese Commissie staat op het punt om ChatGPT formeel onder het strengste toezicht van de Digital Services Act (DSA) te plaatsen. Dit betekent dat OpenAI’s dienst als een ‘Very Large Online Platform’ (VLOP) wordt aangemerkt, met alle bijbehorende verplichtingen op het gebied van transparantie, risicobeheer en onafhankelijke audits. Voor ondernemers vertaalt dit zich naar een AI-tool die onder een vergrootglas ligt, wat zowel risico’s als kansen met zich meebrengt voor dagelijks gebruik.

Wat er aan de hand is

Volgens berichtgeving van Bright heeft de Europese Commissie besloten om ChatGPT te classificeren als een ‘zoekmachine’ onder de Digital Services Act (DSA). Deze wet, die sinds februari 2024 volledig van kracht is, reguleert online diensten in de EU. De classificatie als ‘Very Large Online Platform’ (VLOP) is voorbehouden aan platforms met meer dan 45 miljoen maandelijkse actieve gebruikers in de EU. Deze status brengt de zwaarste verplichtingen met zich mee, waaronder het uitvoeren van jaarlijkse risicobeoordelingen, het nemen van maatregelen om systemische risico’s (zoals desinformatie) te mitigeren, het faciliteren van onafhankelijk onderzoek naar hun algoritmes en het openbaar maken van transparantierapporten. Deze stap volgt op een eerder onderzoek van de EU naar mogelijke DSA-overtredingen door OpenAI.

Wat dit betekent

De formele classificatie betekent dat ChatGPT onder een permanente, strenge compliance-microscoop van de EU komt te liggen. Voor ondernemers en professionals die ChatGPT in hun processen gebruiken, heeft dit directe gevolgen. Ten eerste neemt de druk op OpenAI toe om de betrouwbaarheid en transparantie van de output te vergroten en risico’s zoals ‘hallucinaties’ (het fabriceren van feiten) actief te beperken. Dit kan op termijn leiden tot een stabieler en voorspelbaarder tool. Tegelijkertijd kan het betekenen dat bepaalde functies of gebruiksmethoden die als riskant worden gezien, worden aangepast of beperkt voor EU-gebruikers. Het plaatst ook een grotere verantwoordelijkheid bij de gebruiker: het gebruik van een gereguleerde dienst voor zakelijke doeleinden brengt een zekere due diligence met zich mee. Je kunt niet langer blind varen op de output; je moet kunnen aantonen dat je bewust omgaat met de beperkingen van de tool.

Hoe je dit kunt toepassen

De praktische toepassing hangt sterk af van hoe intensief en in welke context je ChatGPT inzet. Het is nu het moment om je gebruik tegen het licht te houden en proactief te sturen op compliance en risicobeheer.

Als je ChatGPT gebruikt voor klantcommunicatie of contentcreatie, zoals het opstellen van e-mails, social media-berichten of website-teksten, is het cruciaal om een menselijke controlelaag in te bouwen. Stel een protocol in waarbij alle gegenereerde output, vooral feitelijke claims, wordt geverifieerd door een medewerker voordat deze wordt gepubliceerd of verzonden. Documenteer dit controleproces.

Als je de tool inzet voor data-analyse, samenvattingen of het verwerken van interne documenten, wees dan extra alert op zogenaamde ‘hallucinaties’. De EU-druk moet OpenAI stimuleren om deze te verminderen, maar het risico blijft. Overweeg om kritieke analyses altijd met een tweede, onafhankelijke bron of methode te cross-checken.

Als je ChatGPT integreert in eigen software of diensten via de API, wordt het belangrijk om de servicevoorwaarden van OpenAI nauwlettend in de gaten te houden. De DSA-verplichtingen kunnen leiden tot aanpassingen in de API, gebruiksvoorwaarden of beschikbare modellen voor de EU-markt. Zorg dat je ontwikkelroadmap flexibel is.

Voor alle gebruikers is het verstandig om jezelf te informeren over de kernprincipes van de DSA, met name over transparantie en gebruikersrechten. Dit helpt je niet alleen om beter met ChatGPT om te gaan, maar maakt je ook bewuster van de bredere regelgevingsomgeving voor digitale diensten waarin je opereert. Houd de officiële communicatie van OpenAI in de gaten voor eventuele aankondigingen over dienstaanpassingen specifiek voor de EU.

Bron: Bright