Volgens een onderzoek van Zweedse media stuurt Meta’s AI-aangedreven slimme bril, de Ray-Ban Meta, gevoelige videobeelden door naar menselijke beoordelaars in Nairobi. De beoordelaars zouden beelden hebben gezien van bijvoorbeeld badkamerbezoek en intieme momenten. Dit rapport heeft al geleid tot een class-action rechtszaak tegen Meta, die onder meer verwijt dat het bedrijf misleidende claims over privacy maakt. Voor ondernemers die AI-hardware overwegen of al gebruiken, is dit een concreet signaal dat de belofte van privacy niet altijd wordt waargemaakt door de leverancier.

Wat is het praktische risico voor jouw bedrijf?

Het kernprobleem is dat AI-hardware, zoals camera’s in brillen of andere wearables, vaak continu of ongemerkt gegevens kan verzamelen. In dit geval worden die gegevens niet alleen door een algoritme verwerkt, maar ook door mensen bekeken voor training of kwaliteitscontrole. Voor een bedrijf betekent dit dat als je dergelijke hardware inzet – bijvoorbeeld voor klantenservice, technische ondersteuning of logistiek – je niet automatisch kunt vertrouwen op de privacygaranties van de fabrikant. Er bestaat een reëel risico dat gevoelige bedrijfsinformatie, intellectueel eigendom of persoonlijke gegevens van klanten en medewerkers onbedoeld worden vastgelegd en gedeeld met derden.

Hoe kun je de risico’s beperken?

Een eerste stap is om altijd uit te gaan van het principe dat hardware met sensoren en een internetverbinding gegevens kan lekken. Je zou kunnen overwegen om een strikt gebruikersbeleid op te stellen voor alle AI-hardware. Dit beleid zou kunnen beschrijven waar, wanneer en door wie de apparaten gebruikt mogen worden, met name in gevoelige ruimtes. Een andere mogelijkheid is om in contracten met leveranciers expliciete clausules over dataverwerking en -opslag op te nemen, en te eisen dat alle partijen in de verwerkingsketen, zoals externe beoordelaars, voldoen aan dezelfde privacywetgeving waar jij aan gebonden bent.

Wat zegt dit over de bredere trend in AI?

Dit incident illustreert een fundamentele spanning in de ontwikkeling van AI: de behoefte aan enorme hoeveelheden trainingsdata botst met het recht op privacy. Voor AI-modellen om goed te functioneren in de echte wereld, zijn vaak menselijke beoordelaars nodig om de data te labelen of de output te controleren. Dit proces is niet altijd transparant voor de eindgebruiker. Als ondernemer is het daarom verstandig om bij elke AI-implementatie, of het nu software of hardware is, de vraag te stellen: “Waar gaan mijn gegevens heen, en wie kan ze inzien?” Het antwoord is niet altijd eenduidig te vinden in de algemene voorwaarden.

Hoe kun je dit vandaag toepassen?

Een praktische stap is om een inventarisatie te maken van alle connected devices met sensoren (camera’s, microfoons) in je bedrijf, van slimme speakers tot wearables, en het dataverwerkingsbeleid van de leveranciers opnieuw te bekijken. Je zou ook kunnen overwegen om medewerkers die met dergelijke hardware werken, te trainen in bewust gebruik, bijvoorbeeld door de bril alleen te activeren wanneer dit strikt nodig is voor de werkzaamheden. De praktische toepassing hangt verder af van jouw specifieke situatie. Via geprompt.nl/stel-je-vraag kun je een vraag stellen die we uitwerken tot een artikel op maat.

De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.

Bron: The Verge