Zoom breidt zijn platform uit met een AI-aangedreven kantoorpakket, maar de meest opvallende aankondiging is de komst van AI-avatars voor vergaderingen en real-time deepfake-detectie. Dit betekent dat je binnenkort een digitale versie van jezelf kunt laten deelnemen aan een vergadering, terwijl het systeem tegelijkertijd controleert of andere deelnemers wel zijn wie ze zeggen te zijn.

Volgens Zoom komen de AI-avatars nog deze maand beschikbaar. Het idee is dat je een avatar kunt trainen op basis van je stem, spraakpatronen en voorkeuren. Vervolgens kan die avatar, na jouw goedkeuring, bepaalde repetitieve of informatieve vergaderingen bijwonen in jouw plaats. Denk aan wekelijkse stand-ups, projectupdates of informatieve sessies waar voornamelijk geluisterd wordt.

Wat betekent de deepfake-detectie voor jouw veiligheid?

Naast de avatars introduceert Zoom real-time deepfake-detectietechnologie voor meetings. Deze technologie is ontworpen om te proberen te identificeren of iemands video- of audiobijdrage kunstmatig gegenereerd of gemanipuleerd is. In een tijd waarin deepfakes toegankelijker worden, is dit een poging om de integriteit en veiligheid van zakelijke gesprekken te waarborgen. Het is een reactie op de groeiende bezorgdheid over identiteitsfraude en social engineering via videogesprekken.

De praktische kant van AI-avatars

De belofte van AI-avatars is vooral efficiëntie: tijd terugwinnen door niet fysiek aanwezig te hoeven zijn bij elke vergadering. De avatar zou, volgens Zoom, kunnen reageren op vragen binnen vooraf goedgekeurde parameters en informatie kunnen delen. Het is belangrijk om te benadrukken dat dit volgens de aankondiging alleen gebeurt met expliciete toestemming van de gebruiker. De technologie bevindt zich nog in een vroege fase en de praktische bruikbaarheid voor complexe, interactieve discussies moet nog blijken.

Hoe kun je dit vandaag toepassen?

Deze functies zijn op het moment van schrijven nog niet live. Een mogelijke stap is om de aankondigingen van Zoom te volgen voor de officiële releasedata en functiebeschrijvingen. Je zou kunnen overwegen om, zodra de features beschikbaar zijn, een interne richtlijn op te stellen over het gebruik van AI-avatars en de nieuwe beveiligingsmogelijkheden binnen je team te bespreken.

Bron: Techcrunch