Intro
De wereld van Large Language Models verandert sneller dan enig ander domein in de technologie. Elke maand verschijnen er nieuwe architecturen, nieuwe tools, nieuwe vormen van redeneren, nieuwe opvraagsystemen en nieuwe optimalisatiestrategieën – en elk daarvan introduceert weer een nieuwe laag terminologie.
Voor marketeers, SEO's en digitale strategen is de uitdaging niet alleen het gebruik van LLM's, maar ook het begrijpen van de taal van de technologie die het zoeken zelf vormgeeft.
Deze woordenlijst maakt een einde aan alle verwarring. Het definieert de belangrijkste concepten die in 2025 van belang zijn, legt ze uit in praktische termen en koppelt ze aan AIO, GEO en de toekomst van AI-gestuurd zoeken. Dit is geen eenvoudig woordenboek, maar een overzicht van de ideeën die de moderne AI-ecosystemen vormgeven.
Gebruik het als uw basisreferentie voor alles wat te maken heeft met LLM's, embeddings, tokens, training, retrieval, redeneren en optimalisatie.
A–C: Kernbegrippen
Aandacht
Het mechanisme binnen een Transformer waarmee het model zich kan concentreren op relevante delen van een zin, ongeacht hun positie. Hierdoor kunnen LLM's context, relaties en betekenis in lange reeksen begrijpen.
Waarom dit belangrijk is: Aandacht is de ruggengraat van alle moderne LLM-intelligentie. Betere aandacht → betere redenering → nauwkeurigere citaten.
AI-optimalisatie (AIO)
De praktijk van het structureren van uw inhoud zodat AI-systemen deze nauwkeurig kunnen begrijpen, ophalen, verifiëren en citeren.
Waarom dit belangrijk is: AIO is de nieuwe SEO — fundamenteel voor zichtbaarheid in AI-overzichten, ChatGPT Search en Perplexity.
Afstemming
Het proces waarbij modellen worden getraind om zich consistent te gedragen in overeenstemming met menselijke intenties, veiligheidsnormen en platformdoelstellingen.
Het alles-in-één platform voor effectieve SEO
Achter elk succesvol bedrijf staat een sterke SEO-campagne. Maar met talloze optimalisatietools en -technieken om uit te kiezen, kan het moeilijk zijn om te weten waar te beginnen. Nou, vrees niet meer, want ik heb precies het ding om te helpen. Ik presenteer het Ranktracker alles-in-één platform voor effectieve SEO
We hebben eindelijk de registratie voor Ranktracker helemaal gratis geopend!
Maak een gratis account aanOf log in met uw gegevens
Omvat:
-
RLHF
-
SFT
-
constitutionele AI
-
voorkeursmodellering
Waarom dit belangrijk is: Afgestemde modellen leveren voorspelbaardere, bruikbaardere antwoorden en evalueren uw content nauwkeuriger.
Autoregressief model
Een model dat één token per keer genereert, waarbij elk token wordt beïnvloed door eerdere tokens.
Waarom dit belangrijk is: Dit verklaart waarom duidelijkheid en structuur de generatiekwaliteit verbeteren: het model bouwt betekenis sequentieel op.
Backpropagation
Het trainingsalgoritme dat modelgewichten aanpast door foutgradiënten te berekenen. Zo 'leert' een LLM.
Bias
Patronen in de output van het model die worden beïnvloed door scheve of onevenwichtige trainingsgegevens.
Waarom dit belangrijk is: Bias kan van invloed zijn op hoe uw merk of onderwerp wordt weergegeven of weggelaten in door AI gegenereerde antwoorden.
Chain-of-Thought (CoT)
Een redeneringstechniek waarbij het model problemen stap voor stap opsplitst in plaats van meteen naar een definitief antwoord te springen.
Waarom dit belangrijk is: Slimmere modellen (GPT-5, Claude 3.5, Gemini 2.0) gebruiken interne gedachteketens om diepere redeneringen te produceren.
Citaten (in AI Search)
De bronnen die AI-systemen onder gegenereerde antwoorden vermelden. Equivalent aan "positie nul" voor generatieve zoekopdrachten.
Waarom dit belangrijk is: Geciteerd worden is de nieuwe maatstaf voor zichtbaarheid.
Contextvenster
De hoeveelheid tekst die een LLM in één interactie kan verwerken.
Variërend van:
-
32k (oudere modellen)
-
200k–2M (moderne modellen)
-
10 miljoen+ tokens in grensverleggende architecturen
Waarom dit belangrijk is: Grote vensters stellen modellen in staat om hele websites of documenten in één keer te analyseren — cruciaal voor AIO.
D–H: Mechanismen en modellen
Decoder-Only Transformer
De architectuur achter GPT-modellen. Deze is gespecialiseerd in genereren en redeneren.
Embedding
Een wiskundige weergave van betekenis. Woorden, zinnen, documenten en zelfs merken worden omgezet in vectoren.
Het alles-in-één platform voor effectieve SEO
Achter elk succesvol bedrijf staat een sterke SEO-campagne. Maar met talloze optimalisatietools en -technieken om uit te kiezen, kan het moeilijk zijn om te weten waar te beginnen. Nou, vrees niet meer, want ik heb precies het ding om te helpen. Ik presenteer het Ranktracker alles-in-één platform voor effectieve SEO
We hebben eindelijk de registratie voor Ranktracker helemaal gratis geopend!
Maak een gratis account aanOf log in met uw gegevens
Waarom dit belangrijk is: Embeddings bepalen hoe AI uw content begrijpt – en of uw merk in gegenereerde antwoorden verschijnt.
Embeddingruimte / vectorruimte
De multidimensionale 'kaart' waar embeddings zich bevinden. Soortgelijke concepten worden gegroepeerd.
Waarom dit belangrijk is: Dit is het echte rangschikkingssysteem voor LLM's.
Entiteit
Een stabiel, door machines herkenbaar concept, zoals:
-
Ranktracker
-
Zoekwoordzoeker
-
SEO-platform
-
ChatGPT
-
Google Search
Waarom dit belangrijk is: LLM's leunen veel meer op entiteitsrelaties dan op het matchen van trefwoorden.
Few-Shot / Zero-Shot Learning
Het vermogen van een model om taken uit te voeren met minimale voorbeelden (few-shot) of zonder voorbeelden (zero-shot).
Fine-Tuning
Aanvullende training die wordt toegepast op een basismodel om het te specialiseren voor een specifiek domein of gedrag.
Generatieve zoekmachineoptimalisatie (GEO)
Optimalisatie specifiek voor door AI gegenereerde antwoorden. Richt zich op het worden van een geloofwaardige bron voor op LLM gebaseerde zoeksystemen.
GPU / TPU
Gespecialiseerde processors die worden gebruikt om LLM's op grote schaal te trainen.
Hallucinatie
Wanneer een LLM onjuiste, niet-onderbouwde of verzonnen informatie genereert.
Waarom dit belangrijk is: Hallucinaties nemen af naarmate modellen betere trainingsgegevens, betere embeddings en sterkere retrieval krijgen.
I–L: Training, interpretatie en taal
Inferentie
Het proces waarbij een LLM output genereert nadat de training is voltooid.
Instructieafstemming
Het trainen van een model om gebruikersinstructies betrouwbaar op te volgen.
Hierdoor voelen LLM's 'behulpzaam' aan.
Kennisgrens
De datum waarna het model geen trainingsgegevens meer heeft. Retrieval-augmented systemen omzeilen deze beperking gedeeltelijk.
Kennisgrafiek
Een gestructureerde weergave van entiteiten en hun relaties. Google Search en moderne LLM's gebruiken deze grafieken om begrip te verankeren.
Groot taalmodel (LLM)
Een op Transformer gebaseerd neuraal netwerk dat is getraind op grote datasets om taal te redeneren, te genereren en te begrijpen.
LoRA (Low-Rank Adaptation)
Een methode om modellen efficiënt te verfijnen zonder elke parameter te wijzigen.
M–Q: Modelgedrag en systemen
Mixture-of-Experts (MoE)
Een architectuur waarin meerdere 'deskundige' neurale submodellen verschillende taken uitvoeren, waarbij een routeringsnetwerk bepaalt welke deskundige moet worden geactiveerd.
Waarom dit belangrijk is: MoE-modellen (GPT-5, Gemini Ultra) zijn veel efficiënter en beter geschikt voor schaalvergroting.
Modelafstemming
Zie 'Afstemming' — richt zich op veiligheid en het matchen van intenties.
Modelgewichten
De numerieke parameters die tijdens de training zijn geleerd. Deze bepalen het gedrag van het model.
Multimodaal model
Een model dat meerdere soorten invoer accepteert:
-
tekst
-
afbeeldingen
-
audio
-
video
-
pdf's
-
code
Waarom dit belangrijk is: Multimodale LLM's (GPT-5, Gemini, Claude 3.5) kunnen hele webpagina's holistisch interpreteren.
Natuurlijke taalbegrip (NLU)
Het vermogen van het model om betekenis, context en intentie te interpreteren.
Neuraal netwerk
Een gelaagd systeem van onderling verbonden knooppunten (neuronen) dat wordt gebruikt om patronen te leren.
Ontologie
Een gestructureerde weergave van concepten en categorieën binnen een domein.
Aantal parameters
Het aantal aangeleerde gewichten in een model.
Waarom dit belangrijk is: Meer parameters → meer representatievermogen, maar niet altijd betere prestaties.
Positiecode
Informatie die aan tokens wordt toegevoegd, zodat het model de volgorde van woorden in een zin kent.
Prompt engineering
Het opstellen van inputs om gewenste outputs uit een LLM te verkrijgen.
R–T: Retrieval, Reasoning & Training Dynamics
RAG (Retrieval-Augmented Generation)
Een systeem waarbij een LLM externe documenten ophaalt voordat een antwoord wordt gegenereerd.
Waarom dit belangrijk is: RAG vermindert hallucinaties aanzienlijk en versterkt AI-zoekopdrachten (ChatGPT Search, Perplexity, Gemini).
Redeneringsengine
Het interne mechanisme waarmee een LLM een analyse in meerdere stappen kan uitvoeren.
Het alles-in-één platform voor effectieve SEO
Achter elk succesvol bedrijf staat een sterke SEO-campagne. Maar met talloze optimalisatietools en -technieken om uit te kiezen, kan het moeilijk zijn om te weten waar te beginnen. Nou, vrees niet meer, want ik heb precies het ding om te helpen. Ik presenteer het Ranktracker alles-in-één platform voor effectieve SEO
We hebben eindelijk de registratie voor Ranktracker helemaal gratis geopend!
Maak een gratis account aanOf log in met uw gegevens
De volgende generatie LLM's (GPT-5, Claude 3.5) omvat:
-
gedachtegang
-
gebruik van hulpmiddelen
-
planning
-
zelfreflectie
Reinforcement Learning from Human Feedback (RLHF)
Een trainingsproces waarbij mensen modeloutputs beoordelen en zo het gedrag helpen sturen.
Herschikking
Een opvraagproces waarbij documenten opnieuw worden gerangschikt op basis van kwaliteit en relevantie.
AI-zoeksystemen gebruiken re-ranking om bronnen voor citaten te selecteren.
Semantisch zoeken
Zoeken op basis van embeddings in plaats van trefwoorden.
Zelfaandacht
Een mechanisme waarmee het model het belang van verschillende woorden in een zin ten opzichte van elkaar kan wegen.
Softmax
Een wiskundige functie die wordt gebruikt om logits om te zetten in waarschijnlijkheden.
Supervised Fine-Tuning (SFT)
Het model handmatig trainen op basis van geselecteerde voorbeelden van goed gedrag.
Token
De kleinste teksteenheid die een LLM verwerkt. Kan zijn:
-
een heel woord
-
een deelwoord
-
interpunctie
-
een symbool
Tokenisatie
Het proces waarbij tekst wordt opgedeeld in tokens.
Transformer
De neurale architectuur achter moderne LLM's.
U–Z: Geavanceerde concepten en opkomende trends
Vector Database
Een database die is geoptimaliseerd voor het opslaan en ophalen van embeddings. Wordt veel gebruikt in RAG-systemen.
Vectorovereenkomst
Een maatstaf voor hoe dicht twee embeddings bij elkaar liggen in de vectorruimte.
Waarom dit belangrijk is: Zowel citatieselectie als semantische matching zijn afhankelijk van gelijkenis.
Gewichtsbinding
Een techniek die wordt gebruikt om het aantal parameters te verminderen door gewichten over lagen te delen.
Zero-Shot-generalisatie
Het vermogen van het model om taken correct uit te voeren waarvoor het nooit specifiek is getraind.
Zero-Shot Retrieval
Wanneer een AI-systeem de juiste documenten opzoekt zonder voorafgaande voorbeelden.
Waarom deze woordenlijst belangrijk is voor AIO, SEO en AI Discovery
De verschuiving van zoekmachines → AI-engines betekent:
-
ontdekking is nu semantisch
-
rangschikking → citatie
-
trefwoorden → entiteiten
-
paginavariabelen → vectorvariabelen
-
SEO → AIO/GEO
Begrijp deze termen:
-
verbetert AIO-strategie
-
versterkt entiteitsoptimalisatie
-
verduidelijkt hoe AI-modellen uw merk interpreteren
-
helpt bij het diagnosticeren van AI-hallucinaties
-
bouwt betere contentclusters
-
begeleidt uw gebruik van de Ranktracker-tool
-
maakt uw marketing toekomstbestendig
Want hoe beter u de taal van LLM's begrijpt, hoe beter u begrijpt hoe u inzicht in deze systemen kunt krijgen.
Deze woordenlijst is uw referentiepunt — het woordenboek van het nieuwe AI-gedreven discovery-ecosysteem.

