YouTube maakt een bestaande tool voor het opsporen van AI-gegenereerde deepfakes beschikbaar voor een specifieke groep: journalisten, overheidsfunctionarissen en politieke kandidaten. Deze zogenaamde ’likeness detection’ werkt vergelijkbaar met het bekende Content ID-systeem voor auteursrecht, maar scant in plaats van muziek of video nu op gezichten van personen. Wanneer de tool een video vindt die een deepfake bevat van iemand uit de pilotgroep, krijgt die persoon een melding en kan hij of zij actie ondernemen, zoals het laten verwijderen van de video. Het doel is om deze groep, die een hoog risico loopt op misleidende impersonatie, meer controle te geven over hun online beeld.

Hoe werkt de detectie en wat kun je ermee?

De tool is in eerste instantie bedoeld voor de persoon zelf, niet voor derden. Als je tot de pilotgroep behoort – YouTube heeft niet bekendgemaakt wie dat precies zijn – krijg je een melding wanneer er een video wordt geüpload waarin jouw gezicht met AI is gegenereerd of gemanipuleerd. Je kunt dan bijvoorbeeld kiezen om de video te laten verwijderen of om er zelf een informatief kaartje (‘contextpaneel’) aan toe te voegen. Voor Nederlandse journalisten, woordvoerders of lokale politici die veel op video verschijnen, kan dit een waardevol instrument worden in reputatiemanagement. Het biedt een manier om proactief te reageren op misinformatie die via deepfakes wordt verspreid.

Wat zijn de beperkingen en gevolgen?

De uitrol is nog beperkt tot een pilot, wat betekent dat de meeste Nederlandse professionals er nog geen toegang toe hebben. YouTube geeft aan dat de tool zich richt op ‘synthetische’ content die de realiteit vervalst, niet op parodieën of satire. Een belangrijke vraag is hoe het platform het onderscheid gaat maken en of dit leidt tot nieuwe discussies over censuur. Voor marketeers en communicatieprofessionals is dit een signaal dat platformen serieus werk maken van het labelen en beheersen van AI-content. Het zet de deur open voor een toekomst waarin ook bedrijven of merken mogelijk een beroep kunnen doen op soortgelijke bescherming tegen deepfakes van hun CEO’s of mascottes.

Hoe kun je dit vandaag toepassen?

Als journalist, woordvoerder of publiek figuur kun je nagaan of jouw organisatie in aanmerking komt voor de pilot door contact op te nemen met YouTube. Een mogelijkheid is om binnen je team of afdeling alvast een protocol op te stellen voor het geval je geconfronteerd wordt met een deepfake, waarin je vastlegt wie er verantwoordelijk is voor monitoring en reactie. Je zou ook kunnen beginnen met het archiveren van authentiek beeldmateriaal van belangrijke spokespersons, wat kan helpen bij het aantonen van authenticiteit of het trainen van toekomstige detectiesystemen.

De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.

Bron: The Verge