De Europese Unie gaat ChatGPT onder het zwaarste toezicht van de Digital Services Act (DSA) plaatsen. Dit betekent dat bedrijven die de tool in hun processen gebruiken, rekening moeten houden met strengere regels voor transparantie, risicobeheer en verantwoording. Het is een direct signaal dat generatieve AI niet langer als experimentele technologie wordt gezien, maar als een systeem met maatschappelijke impact dat gecontroleerd moet worden.
Wat er aan de hand is
De Europese Commissie staat op het punt om ChatGPT formeel te classificeren als een “Very Large Online Platform” (VLOP) onder de Digital Services Act (DSA). Dit is de zwaarste categorie van toezicht binnen de EU-wetgeving voor digitale diensten. De beslissing volgt op een onderzoek door de Commissie naar de risico’s van het systeem. Door deze classificatie valt ChatGPT, en daarmee zijn maker OpenAI, onder verplichtingen die eerder waren voorbehouden aan giganten als Google Search en Meta’s Facebook. Het is een van de eerste keren dat een generatieve AI-dienst onder dit regime wordt gebracht, wat een precedent schept voor vergelijkbare diensten.
Wat dit betekent
Voor Nederlandse ondernemers en professionals die ChatGPT gebruiken, verandert er iets fundamenteels: de tool waarop zij mogelijk bedrijfsprocessen bouwen, wordt nu door toezichthouders gezien als een systeem dat risico’s kan veroorzaken voor de samenleving. Concreet betekent dit dat OpenAI verplicht wordt om uitgebreide risicoanalyses uit te voeren, maatregelen te nemen om die risico’s te beperken en hierover te rapporteren aan de EU. Voor gebruikers vertaalt dit zich naar twee zaken: een grotere kans op functionele veranderingen in ChatGPT (omdat OpenAI aan regels moet voldoen) en een grotere noodzaak om zelf bewust om te gaan met de output van de tool. Het plaatst de verantwoordelijkheid voor het kritisch beoordelen van AI-output nog meer bij de eindgebruiker, het bedrijf.
Hoe je dit kunt toepassen
De praktische toepassing hangt af van hoe intensief je ChatGPT in je bedrijfsvoering gebruikt. Het is nu het moment om je afhankelijkheid van de tool en de mogelijke risico’s daarvan in kaart te brengen.
Als je ChatGPT gebruikt voor klantcommunicatie of contentcreatie, overweeg dan om je processen te documenteren. Noteer bijvoorbeeld welke prompts je gebruikt en voer een basiscontrole in op de gegenereerde antwoorden, vooral als het gaat om feitelijke claims of advies. De nieuwe regels benadrukken dat de verantwoordelijkheid voor de uiteindelijke output bij de gebruiker ligt.
Als je ChatGPT integreert in een eigen applicatie of dienst via de API, is het verstandig om de servicevoorwaarden van OpenAI in de gaten te houden. De verplichtingen onder de DSA kunnen leiden tot aanpassingen in het aanbod, gebruiksvoorwaarden of beschikbaarheid van bepaalde functies. Zorg dat je niet voor verrassingen komt te staan.
Als je ChatGPT gebruikt voor het analyseren of samenvatten van interne data, blijf alert op de nauwkeurigheid. De EU-regels richten zich mede op het tegengaan van desinformatie en het beschermen van fundamentele rechten. Hoewel dit vooral een verplichting voor OpenAI is, onderstreept het het belang voor jou als bedrijf om niet blindelings op AI-conclusies te vertrouwen.
Een algemene stap voor elke gebruiker is om het gesprek over AI-gebruik binnen je team of organisatie te voeren. Bespreek niet alleen de efficiëntiewinst, maar ook de potentiële risico’s en hoe je die beheerst. De EU-beslissing maakt duidelijk dat generatieve AI serieus genomen moet worden, ook in de dagelijkse bedrijfsvoering.
Bron: Bright