Als je klanten vragen stellen aan ChatGPT of een andere AI-assistent over jouw bedrijf, krijg je dan een accuraat antwoord? Dat hangt af van hoe die AI je website ‘ziet’. AI-crawlers lezen webpagina’s niet zoals een menselijke bezoeker dat doet. Ze interpreteren de onderliggende structuur en inhoud, en als die rommelig is, kan de AI de verkeerde conclusies trekken. Het gevolg is dat een potentiële klant via een chatbot misleidende of incomplete informatie over jou krijgt.

Hoe AI je website leest

AI-tools zoals de webcrawler van OpenAI (die bijvoorbeeld ChatGPT van data voorziet) scannen je site op zoek naar de kerninhoud. Ze negeren grotendeels visuele elementen en focussen op tekst, structuur en metadata. Een veelvoorkomend probleem is dat moderne websites, gebouwd met JavaScript-frameworks zoals React of Vue (zogenaamde Single Page Applications of SPA’s), hun inhoud pas laden nadat de pagina is geladen. Voor een traditionele zoekmachinecrawler was dat vaak al een uitdaging, en voor sommige AI-crawlers geldt dat nog steeds. Als de crawler alleen de initiële, lege HTML-sjabloon ziet, concludeert hij dat je pagina geen waardevolle inhoud heeft.

Waarom dit voor jouw bedrijf belangrijk is

De impact is direct merkbaar in klantinteracties. Stel, je biedt een exclusieve dienst aan boven een bepaalde orderwaarde, maar deze voorwaarde staat alleen in een grafische banner die de AI niet ‘ziet’. De AI kan dan tegen een klant zeggen dat je die dienst altijd aanbiedt. Of je prijzen zijn dynamisch en staan in een JavaScript-widget; de AI ziet alleen de placeholder-tekst “Vanaf €…” en geeft een onjuist bedrag door. Je reputatie en klanttevredenheid kunnen hieronder lijden, zonder dat je het direct doorhebt.

Praktische stappen om je site AI-vriendelijk te maken

De oplossing ligt in het aanbieden van gestructureerde, toegankelijke data. Een eerste, cruciale stap is het implementeren van server-side rendering (SSR) of static site generation (SSG) voor je website. Dit zorgt ervoor dat de volledige HTML-inhoud al bij de eerste aanvraag van de crawler beschikbaar is. Voor veel moderne platformen zoals Next.js of Nuxt.js is dit een standaardoptie. Als dit technisch niet haalbaar is, kun je gebruikmaken van dynamic rendering: je detecteert of de bezoeker een crawler is en serveert dan een eenvoudige, volledig geladen HTML-versie van de pagina.

Daarnaast is het verstandig om je belangrijke bedrijfsinformatie expliciet aan te bieden in gestructureerde data, bijvoorbeeld met JSON-LD-schema’s. Hierin kun je je openingstijden, prijzen, dienstencategorieën en contactgegevens op een machine-leesbare manier vastleggen. Dit is een aanvulling op de zichtbare tekst en geeft AI-tools een betrouwbare bron van informatie.

Hoe kun je dit vandaag toepassen?

Je kunt beginnen met een eenvoudige test. Gebruik een tool zoals de ‘Fetch as Google’ in Search Console of een crawler-simulator zoals Screaming Frog. Bekijk de gerenderde HTML van je belangrijkste pagina’s en check of alle cruciale tekst en informatie zichtbaar is. Controleer vervolgens of je JSON-LD-schema’s voor je bedrijf correct zijn geïmplementeerd met Google’s Structured Data Testing Tool. Dit geeft je direct inzicht in wat AI-crawlers op dit moment van je site begrijpen.

Bron: Search Engine Journal