De onafhankelijke toezichthouder van Meta, het Oversight Board, stelt dat de huidige methodes van het bedrijf om AI-gegenereerde content en deepfakes te labelen “niet robuust of uitgebreid genoeg” zijn. Dit gebrek aan effectieve controle vormt een direct risico voor ondernemers die afhankelijk zijn van sociale media voor hun merkcommunicatie en reputatie.

Waarom de huidige labels tekortschieten

Meta vertrouwt momenteel grotendeels op twee methodes: het labelen van content die is gemaakt met bepaalde AI-tools van Meta zelf, en het afhankelijk zijn van gebruikers die content rapporteren. Het Oversight Board wijst erop dat dit systeem te traag en te passief is, vooral tijdens crisismomenten wanneer desinformatie snel viral gaat. In een concreet geval onderzocht de Board een gemanipuleerde video van vermeende schade aan gebouwen in Israël, die ondanks zijn kunstmatige aard niet tijdig werd gelabeld of verwijderd. Voor een ondernemer betekent dit dat een deepfake die zijn product of dienst in een kwaad daglicht stelt, ongehinderd verspreid kan worden.

Het risico voor merkreputatie en vertrouwen

Het probleem reikt verder dan alleen politieke desinformatie. Dezelfde technieken die worden gebruikt om nepbeelden van conflicten te maken, kunnen worden ingezet om nep-reviews, valse statements van een CEO of gemanipuleerde beelden van productfalen te fabriceren. Als platforms zoals Facebook, Instagram en Threads deze content niet proactief en accuraat kunnen identificeren en labelen, ligt de bewijslast volledig bij het bedrijf dat wordt getroffen. Het herstellen van vertrouwen bij klanten na zo’n aanval is een lang en kostbaar proces.

Wat Meta volgens de toezichthouder moet verbeteren

Het Oversight Board dringt er bij Meta op aan om zijn beleid grondig te herzien. Een centrale aanbeveling is om niet langer alleen te focussen op de technische oorsprong van een afbeelding (bijvoorbeeld of deze met een specifieke AI-tool is gemaakt), maar op de misleidende inhoud zelf. Daarnaast pleit de Board voor duidelijker en consistenter toegepaste labels, die gebruikers waarschuwen voor mogelijk gemanipuleerde media, ongeacht hoe ze zijn gemaakt. Voor ondernemers zou een dergelijk systeem een cruciale eerste verdedigingslinie vormen.

Hoe kun je dit vandaag toepassen?

De praktische toepassing hangt af van jouw situatie. Via geprompt.nl/stel-je-vraag kun je een vraag stellen die we uitwerken tot een artikel op maat.

De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.

Bron: The Verge