Als marketing manager word je waarschijnlijk doodgegooid met termen als LLM, Generative AI en GPT. Maar er is één afkorting die minder vaak in de headlines staat, maar wel bepaalt of jouw merk straks nog zichtbaar is: RAG.
Misschien denk je: “Leuk, weer een tech-buzzword”. Maar vergis je niet. RAG is de motor achter hoe Google AI Overviews, ChatGPT Search en Perplexity werken. Als je begrijpt hoe RAG werkt, snap je waarom “ouderwetse” SEO plotseling belangrijker is dan ooit voor je AI-strategie en je AI opptimalisatie
In dit artikel leg ik je uit wat RAG is, en waarom je zonder een toppositie in Google (of Bing) waarschijnlijk onzichtbaar bent voor de AI.
Wat is RAG? (En waarom LLM’s niet zonder kunnen)
RAG staat voor Retrieval-Augmented Generation.
Laten we even een stap terug doen. Een Large Language Model (LLM) zoals ChatGPT of Gemini is indrukwekkend, maar heeft twee grote gebreken:
- Kennisstop: Het model is getraind op data tot een bepaald moment. Alles wat daarna gebeurt, weet het niet.
- Hallucinaties: Als het model het antwoord niet weet, verzint het soms maar wat.
RAG lost dit op. Het geeft het taalmodel toegang tot externe, actuele informatiebronnen voordat het een antwoord geeft.
Zie het zo:
Stel, een LLM is een geniale professor die al 3 jaar in een kelder zit zonder internet. Als je vraagt: “Wie won de Formule 1 race gisteren?”, gaat hij gokken. Met RAG geef je die professor toegang tot een bibliotheek of Google. Als je nu de vraag stelt, zoekt hij eerst het actuele nieuwsartikel op (Retrieval), leest dat door, en formuleert op basis daarvan een antwoord aan jou (Generation).
RAG in het wild: Hoe de grote spelers het gebruiken
Vrijwel elke moderne AI-zoekervaring die je nu ziet, is een vorm van RAG. Laten we kijken hoe dit eruitziet in de tools die jouw klanten gebruiken.
1. Google AI Overviews (SGE)
Google is hier de meester in. Wanneer iemand een zoekopdracht invoert, kijkt Google’s AI niet alleen naar wat het “geleerd” heeft tijdens de training. Het voert razendsnel een zoekopdracht uit in zijn eigen index, pakt de topresultaten, en vat deze samen in een antwoord bovenaan de pagina.
- De bron: De Google Search Index.
2. Perplexity
Perplexity noemt zichzelf een “antwoordmachine”. Het is in feite een RAG-schil over verschillende zoekmachines heen. Het leest meerdere bronnen, vat ze samen en – heel belangrijk – plaatst voetnoten.
- De bron: Een combinatie van indexen (vaak Google en Bing).
3. Microsoft Copilot (Bing)
Copilot gebruikt de kracht van GPT-4, maar “grounded” (verankert) de antwoorden met live data uit Bing.
- De bron: De Bing Search Index.
4. ChatGPT & Gemini
Zelfs de pure chatbots doen dit nu. Als je ChatGPT (met SearchGPT functionaliteit) of Gemini een actuele vraag stelt, zie je vaak “Searching…” staan. Dat is het RAG-proces in actie.
Kijk hier een filmpje hoe Chatgpt RAG inzet.
De harde waarheid: Geen ranking = Geen AI-vermelding
Hier komt het punt waar jouw rol als marketing manager en die van je SEO-specialist samenkomen.
Veel mensen denken dat “AI Optimalisatie” (ook wel GEO – Generative Engine Optimization genoemd) iets totaal nieuws is. Dat je je site in een soort mysterieuze AI-database moet krijgen. De realiteit is simpeler, maar hard: om door een RAG-systeem opgepikt te worden, moet het systeem jouw content kunnen vinden.
En waar halen deze systemen hun informatie vandaan? Juist. Uit de Zoekresultaten van Google en Bing.
Welke resultaten de LLM pakt is niet superduidelijk. Dus de eerste pagina of opvolgende pagina’s verschilt over tijd en per LLM. Google probeert te voorkomen dat andere LLM’s meer dan de top 20 crawlen. We hebben onderzoeken gezien dat wel de top 80 wordt meegenomen.
De vuistregel: Als je niet hoog rankt in de traditionele zoekmachine, word je niet “opgehaald” (Retrieved). En als je niet wordt opgehaald, word je niet gebruikt in het antwoord (Generated).
Ons eigen onderzoek toont aan: Hier zien we de positie in de onbetaalde Google resultaten en de vermelding in ChatGPT – hoge positie in ChatGPT lijkt sterk afhankelijk van positie in Google
Waarom dit jouw strategie verandert
Dit betekent dat LLM-optimalisatie in de kern begint bij traditionele SEO, maar met een extra laag:
- Technische SEO is de basis: Als Google je niet kan indexeren, bestaat je niet voor de AI.
- Autoriteit is cruciaal: AI-modellen zijn getraind om betrouwbare bronnen voorrang te geven. Een hoge domain authority in Google vertaalt zich vaak naar een plekje in de bronvermelding van de AI.
- Structuur is koning: LLM’s houden van structuur. Gebruik duidelijke koppen, bulletpoints en schema markup. Dit maakt het makkelijker voor de bot om de stukjes tekst te begrijpen en te gebruiken in het antwoord.
Conclusie: RAG maakt SEO belangrijker, niet minder
De angst dat “SEO dood is” door AI, is ongegrond. De dynamiek verandert alleen. We gaan van zoeken naar blauwe linkjes naar zoeken naar antwoorden.
Maar de bron van dat antwoord? Dat ben jij nog steeds.
Als marketing manager moet je zorgen dat je content zo goed is, en technisch zo sterk staat, dat de zoekmachines (en dus de RAG-systemen) jou als dé bron van waarheid zien. Sta je hoog in Google? Dan is de kans groot dat je de “aanbevolen expert” wordt in het AI-antwoord. Sta je nergens? Dan praat de AI over je concurrent.
Zo simpel is het.
Wil je eens sparren over hoe we jouw huidige content kunnen optimaliseren voor zowel Google als de nieuwe AI-systemen? Ik kijk graag met je mee naar de huidige posities.
Reacties