Meer dan 1 miljard mensen gebruiken ChatGPT elke maand. Perplexity verwerkt inmiddels meer dan 780 miljoen zoekopdrachten per maand. Google AI Overviews verschijnen bij een op de drie zoekopdrachten. Toch staat jouw website in geen van die antwoorden. Niet omdat je content slecht is. Maar omdat AI jou technisch niet kan lezen.
Ik scan wekelijks websites van MKB-bedrijven op AI-zichtbaarheid. Het patroon is altijd hetzelfde: prima website, goede teksten, maar de technische basis voor AI-leesbaarheid ontbreekt volledig. Dat is oplosbaar. En het kost minder moeite dan je denkt.
Kernpunten
- ChatGPT heeft meer dan 1 miljard maandelijkse gebruikers; Google-verkeer naar websites daalde 38% YoY (Press Gazette, 2025)
- Minder dan 10% van websites heeft een llms.txt bestand (Rankability, 2025) — dat is jouw voorsprong
- Pagina's met FAQ schema zijn 3,2× vaker zichtbaar in Google AI Overviews (Stackmatix, 2026)
- De vijf meestvoorkomende redenen: geen llms.txt, geen schema markup, AI crawlers geblokkeerd, slechte contentstructuur, niet-citeerbare teksten
Hoe zoekt ChatGPT naar informatie over jouw bedrijf?
ChatGPT is geen zoekmachine. Het systeem haalt geen live resultaten op als je een vraag stelt. In plaats daarvan combineert het twee bronnen: trainingsdata (informatie die OpenAI heeft verzameld tot een bepaalde datum) en bij sommige versies een live webzoekopdracht via Bing. Perplexity doet dat altijd in real-time: het crawlt het web, haalt bronnen op en synthesiseert een antwoord.
Google AI Overviews werkt anders. Die haalt informatie op uit het reguliere Google-index, maar beslist zelf welke bronnen het citeert. Onderzoek van Seer Interactive laat zien dat organisch CTR met 61% daalde bij zoekopdrachten waarbij AI Overviews verschenen — van 1,76% naar 0,61%. De klikken gaan naar de bron die AI citeert, en die hoeft niet de nummer-één ranking te hebben.
Wat ik in de praktijk zie: AI-systemen citeren veel vaker websites die technisch helder zijn ingericht dan websites met betere content maar een rommelige structuur. Structured data en een llms.txt bestand zijn geen optionele extra's meer. Ze zijn de ingang die AI-systemen gebruiken om te begrijpen wie jij bent.
Dat betekent concreet: als Perplexity of ChatGPT iemand adviseert over een probleem dat jij oplost, is de kans dat jouw bedrijf genoemd wordt afhankelijk van hoe leesbaar jij bent voor die systemen. Niet hoe goed je Google-ranking is.
De vijf meest voorkomende redenen waarom AI jouw website negeert
Minder dan 10% van alle websites heeft een llms.txt bestand, blijkt uit analyse van bijna 300.000 domeinen door Rankability (2025). Tegelijkertijd zijn er vijf technische problemen die ik keer op keer terugzie bij MKB-websites die niet worden geciteerd door AI.
1. Geen llms.txt bestand
Een llms.txt bestand vertelt AI-systemen wie je bent, wat je doet en welke pagina's ze moeten lezen. Vergelijk het met robots.txt voor zoekmachines — maar dan specifiek voor grote taalmodellen. Het staat in de root van je website en bevat in leesbare tekst: je bedrijfsbeschrijving, diensten, contactgegevens en links naar belangrijke pagina's. Minder dan 10% van websites heeft dit bestand. Dat betekent dat je met een halve dag werk in de voorhoede zit.
2. Geen of minimale Schema.org markup
Schema markup is gestructureerde data die aangeeft wat een entiteit is. Een persoon, een dienst, een vraag-en-antwoord. Onderzoek van Stackmatix (2026) laat zien dat pagina's met FAQPage markup 3,2 keer vaker worden geciteerd in Google AI Overviews dan pagina's zonder. Sites met correct geïmplementeerde structured data worden overall 3,2 keer vaker geciteerd in AI-antwoorden. Het signaal dat schema markup afgeeft is simpel: "ik weet wat ik ben, en hier is het bewijs."
3. AI crawlers geblokkeerd via robots.txt
Veel websites hebben hun robots.txt niet aangepast na de opkomst van AI. Ze blokkeren daarmee crawlers van GPTBot (OpenAI), PerplexityBot en Google-Extended — de bots die AI-systemen gebruiken om informatie te verzamelen. Als jouw robots.txt nog het standaard-template van vijf jaar geleden is, is de kans reëel dat je onbedoeld AI-verkeer blokkeert.
4. Content die niet citeerbaar is
AI-systemen citeren passages, niet pagina's. Een tekst vol marketingpraat en vage beweringen wordt niet geciteerd. Een tekst met een specifiek feit, een duidelijke claim en een bronvermelding wél. De structuur telt ook: koppen als vragen, alinea's die beginnen met het antwoord, en concrete getallen.
5. Geen FAQ of entity schema
FAQ schema geeft AI-systemen kant-en-klare vraag-antwoord-paren die ze direct kunnen verwerken. Entity schema vertelt wie het bedrijf is, wie de eigenaar is en wat de relaties zijn. Zonder dat moet AI raden. Dat doet het liever niet — en springt naar een concurrent die deze context wél heeft aangeleverd.
Wat doet een llms.txt bestand precies?
Een llms.txt bestand is een platte tekstpagina op jouwwebsite.nl/llms.txt. Het is geen technisch bestand en je hebt er geen ontwikkelaar voor nodig — het is gewoon tekst, gestructureerd als een Markdown-document. AI-systemen vinden het via een directe GET-request op die URL.
Wat ik in de praktijk zie: de waarde van llms.txt zit niet alleen in de technische leesbaarheid. Het dwingt je ook om helder te formuleren wie je bent en wat je doet. Veel MKB-websites hebben een homepage vol slogans maar nergens een directe, feitelijke beschrijving van het bedrijf. llms.txt forceert die duidelijkheid — en die helpt niet alleen AI, maar ook echte bezoekers.
Een goed llms.txt bestand bevat: een korte bedrijfsbeschrijving in gewone taal, een lijst van diensten met links, informatie over de eigenaar of specialist, de doelgroep en het werkgebied, en contactgegevens. Dat is het. Geen code, geen techniek. Dertig minuten werk.
Hoe meet je je AI-zichtbaarheid?
De snelste manier is een directe test: open ChatGPT of Perplexity en stel een vraag die jij zou moeten beantwoorden. Iets als: "Welk bedrijf in [jouw stad] helpt met [jouw dienst]?" of "Wie doet GEO-optimalisatie voor MKB in Nederland?" Als jouw bedrijf niet wordt genoemd, ben je onzichtbaar voor iedereen die die vraag stelt.
Een meer gestructureerde aanpak is een GEO scan. Die kijkt naar llms.txt, robots.txt-instellingen, schema markup, laadsnelheid, HTTPS, Open Graph tags en de structuur van je content. Het resultaat is een score van 0 tot 100 met een prioriteitenlijst van wat het meeste effect heeft.
Wat ik altijd zeg bij de scan: de score is een startpunt, geen oordeel. Ik heb websites gezien met score 12 die met vier aanpassingen naar 68 gingen. Ik heb ook websites gezien die al op 55 stonden maar door één structural data-aanpassing direct boven de concurrentie uitkwamen in Perplexity-antwoorden. Het gaat niet om perfectie. Het gaat om het dichten van de gaten die AI-systemen tegenhouden.
Doe de gratis GEO scan
Vul je website-URL in en ontvang binnen 24 uur een persoonlijk rapport met jouw score en concrete verbeterpunten.
Start de gratis scan →Is GEO hetzelfde als SEO?
Nee — maar er is overlap. SEO optimaliseert voor traditionele zoekmachines: Google-ranking, backlinks, zoekvolume. GEO (Generative Engine Optimization) optimaliseert voor AI-systemen die antwoorden genereren. De technieken overlappen deels: goede content, snelle website, duidelijke structuur. Maar GEO heeft eigen technieken die SEO niet dekt.
Het grote verschil: bij SEO concurreer je om de top-10 resultaten. Bij GEO concurreer je om één citaat in één antwoord. Dat is een andere selectieprocedure. AI kiest op basis van leesbaarheid, autoriteit en relevantie van de bron — niet op basis van Domain Authority of het aantal backlinks.
Traditioneel Google-verkeer daalde in 2025 met 38% op jaarbasis, meldt Press Gazette na analyse van verkeer naar uitgevers wereldwijd. Dat is structureel, geen tijdelijke dip. Het patroon is duidelijk: mensen stellen hun vragen steeds vaker aan AI, en AI geeft één antwoord. Als jij dat antwoord niet bent, geeft een concurrent het.
Wat pak je als eerste aan?
Op basis van wat ik terugzie in scans is de volgorde vrij consistent. Begin hier:
- Controleer je robots.txt — open
jouwwebsite.nl/robots.txten kijk of GPTBot, PerplexityBot of Google-Extended geblokkeerd worden. Als dat zo is, hef die blokkering op. - Maak een llms.txt aan — schrijf in gewone taal wie je bent, wat je doet, voor wie en waar je te bereiken bent. Zet het op
/llms.txt. Dat is stap één en de makkelijkste. - Voeg basis schema markup toe — minimaal
OrganizationenPersonschema op je homepage. Als je diensten hebt, voegServiceschema toe. Als je FAQ-content hebt, voegFAQPagetoe. - Herschrijf je servicepagina's— elk blok content begint met een directe claim. Geen "Wij geloven dat..." maar "Wij doen X en het kost Y." Citeerbaar, concreet, feitelijk.
Stap 1 en 2 zijn een halve dag werk. Stap 3 en 4 kosten meer tijd maar zijn het meest impactvol op de langere termijn. Als je niet weet waar te beginnen, is een GEO scan de snelste manier om te zien welke stappen voor jouw specifieke website het meeste opleveren.
Als je naast GEO ook wil kijken naar bredere AI-integratie in je bedrijfsprocessen, lees dan het AI-implementatie stappenplan voor MKB — daarin behandel ik welke processen het meest geschikt zijn voor automatisering en hoe je dat gestructureerd aanpakt.
Veelgestelde vragen
Wat is het verschil tussen SEO en GEO?
SEO optimaliseert voor traditionele zoekmachines zoals Google Search via ranking, backlinks en zoekvolume. GEO (Generative Engine Optimization) optimaliseert specifiek voor AI-systemen zoals ChatGPT, Perplexity en Google AI Overviews. Die systemen selecteren één bron om te citeren, geen top-10. GEO richt zich op leesbaarheid, structured data en citeerbare content. Pagina's met FAQPage schema zijn 3,2× vaker zichtbaar in Google AI Overviews (Stackmatix, 2026).
Hoe snel ben ik zichtbaar in ChatGPT na aanpassingen?
ChatGPT gebruikt deels trainingsdata met een vaste cutoff en deels live webzoekopdrachten. Voor Perplexity en Google AI Overviews — die altijd live crawlen — kunnen aanpassingen binnen enkele dagen tot weken effect hebben. ChatGPT's trainingsdata wordt periodiek bijgewerkt. Perplexity en Google AI reageren het snelst op technische verbeteringen.
Heeft mijn bedrijf een llms.txt nodig als ik al robots.txt heb?
Ja. Robots.txt vertelt crawlers wat ze niet mogen lezen. llms.txt vertelt AI-systemen wat ze wél moeten lezen en begrijpen. Het zijn complementaire bestanden voor verschillende doelen. Minder dan 10% van websites heeft llms.txt (Rankability, 2025) — dat maakt het een directe concurrentievoordeel voor wie het implementeert.
Is een GEO scan iets voor elke website of alleen grotere bedrijven?
Elke website die gevonden wil worden door potentiële klanten die vragen stellen aan AI, heeft baat bij een GEO scan. Juist MKB-bedrijven kunnen hier snel winst behalen: de technische drempel is laag, concurrenten hebben het zelden op orde, en de veranderingen zijn eenmalig. De scan geeft een concrete prioriteitenlijst voor jouw specifieke situatie.
Wat kost GEO-optimalisatie?
De gratis GEO scan geeft een score en verbeterpunten zonder kosten. Wie verder wil, kan kiezen uit Basis GEO (€500 eenmalig) voor de technische basis, Groei GEO (€1.500 eenmalig) voor een volledige aanpak inclusief contentstructuur, of Full GEO (€3.000 inclusief drie maanden monitoring). Alle pakketten hebben vaste prijzen, geen abonnement.
Conclusie
De verschuiving is gaande. Meer dan 1 miljard mensen stellen hun vragen aan ChatGPT. Google-verkeer daalt terwijl AI-verkeer groeit. Websites die technisch onzichtbaar zijn voor AI raken een steeds groter deel van hun potentiële bereik kwijt — zonder het zelf te merken.
De vijf problemen die ik het meest zie: geen llms.txt, geen schema markup, geblokkeerde AI crawlers, niet-citeerbare content en geen FAQ schema. Elk van die problemen is oplosbaar. De meeste in minder dan een dag.
De eerste stap is weten waar je staat. Gebruik de gratis GEO scan om een score van 0-100 te krijgen en een prioriteitenlijst op maat. Ik kijk er persoonlijk naar en stuur je een eerlijk rapport binnen 24 uur.
