• LLM

Verklarende woordenlijst LLM: Sleutelbegrippen en definities

  • Felix Rose-Collins
  • 6 min read

Intro

De wereld van Large Language Models verandert sneller dan enig ander domein in de technologie. Elke maand verschijnen er nieuwe architecturen, nieuwe tools, nieuwe vormen van redeneren, nieuwe opvraagsystemen en nieuwe optimalisatiestrategieën – en elk daarvan introduceert weer een nieuwe laag terminologie.

Voor marketeers, SEO's en digitale strategen is de uitdaging niet alleen het gebruik van LLM's, maar ook het begrijpen van de taal van de technologie die het zoeken zelf vormgeeft.

Deze woordenlijst maakt een einde aan alle verwarring. Het definieert de belangrijkste concepten die in 2025 van belang zijn, legt ze uit in praktische termen en koppelt ze aan AIO, GEO en de toekomst van AI-gestuurd zoeken. Dit is geen eenvoudig woordenboek, maar een overzicht van de ideeën die de moderne AI-ecosystemen vormgeven.

Gebruik het als uw basisreferentie voor alles wat te maken heeft met LLM's, embeddings, tokens, training, retrieval, redeneren en optimalisatie.

A–C: Kernbegrippen

Aandacht

Het mechanisme binnen een Transformer waarmee het model zich kan concentreren op relevante delen van een zin, ongeacht hun positie. Hierdoor kunnen LLM's context, relaties en betekenis in lange reeksen begrijpen.

Waarom dit belangrijk is: Aandacht is de ruggengraat van alle moderne LLM-intelligentie. Betere aandacht → betere redenering → nauwkeurigere citaten.

AI-optimalisatie (AIO)

De praktijk van het structureren van uw inhoud zodat AI-systemen deze nauwkeurig kunnen begrijpen, ophalen, verifiëren en citeren.

Waarom dit belangrijk is: AIO is de nieuwe SEO — fundamenteel voor zichtbaarheid in AI-overzichten, ChatGPT Search en Perplexity.

Afstemming

Het proces waarbij modellen worden getraind om zich consistent te gedragen in overeenstemming met menselijke intenties, veiligheidsnormen en platformdoelstellingen.

Maak kennis met Ranktracker

Het alles-in-één platform voor effectieve SEO

Achter elk succesvol bedrijf staat een sterke SEO-campagne. Maar met talloze optimalisatietools en -technieken om uit te kiezen, kan het moeilijk zijn om te weten waar te beginnen. Nou, vrees niet meer, want ik heb precies het ding om te helpen. Ik presenteer het Ranktracker alles-in-één platform voor effectieve SEO

We hebben eindelijk de registratie voor Ranktracker helemaal gratis geopend!

Maak een gratis account aan

Of log in met uw gegevens

Omvat:

  • RLHF

  • SFT

  • constitutionele AI

  • voorkeursmodellering

Waarom dit belangrijk is: Afgestemde modellen leveren voorspelbaardere, bruikbaardere antwoorden en evalueren uw content nauwkeuriger.

Autoregressief model

Een model dat één token per keer genereert, waarbij elk token wordt beïnvloed door eerdere tokens.

Waarom dit belangrijk is: Dit verklaart waarom duidelijkheid en structuur de generatiekwaliteit verbeteren: het model bouwt betekenis sequentieel op.

Backpropagation

Het trainingsalgoritme dat modelgewichten aanpast door foutgradiënten te berekenen. Zo 'leert' een LLM.

Bias

Patronen in de output van het model die worden beïnvloed door scheve of onevenwichtige trainingsgegevens.

Waarom dit belangrijk is: Bias kan van invloed zijn op hoe uw merk of onderwerp wordt weergegeven of weggelaten in door AI gegenereerde antwoorden.

Chain-of-Thought (CoT)

Een redeneringstechniek waarbij het model problemen stap voor stap opsplitst in plaats van meteen naar een definitief antwoord te springen.

Waarom dit belangrijk is: Slimmere modellen (GPT-5, Claude 3.5, Gemini 2.0) gebruiken interne gedachteketens om diepere redeneringen te produceren.

Citaten (in AI Search)

De bronnen die AI-systemen onder gegenereerde antwoorden vermelden. Equivalent aan "positie nul" voor generatieve zoekopdrachten.

Waarom dit belangrijk is: Geciteerd worden is de nieuwe maatstaf voor zichtbaarheid.

Contextvenster

De hoeveelheid tekst die een LLM in één interactie kan verwerken.

Variërend van:

  • 32k (oudere modellen)

  • 200k–2M (moderne modellen)

  • 10 miljoen+ tokens in grensverleggende architecturen

Waarom dit belangrijk is: Grote vensters stellen modellen in staat om hele websites of documenten in één keer te analyseren — cruciaal voor AIO.

D–H: Mechanismen en modellen

Decoder-Only Transformer

De architectuur achter GPT-modellen. Deze is gespecialiseerd in genereren en redeneren.

Embedding

Een wiskundige weergave van betekenis. Woorden, zinnen, documenten en zelfs merken worden omgezet in vectoren.

Maak kennis met Ranktracker

Het alles-in-één platform voor effectieve SEO

Achter elk succesvol bedrijf staat een sterke SEO-campagne. Maar met talloze optimalisatietools en -technieken om uit te kiezen, kan het moeilijk zijn om te weten waar te beginnen. Nou, vrees niet meer, want ik heb precies het ding om te helpen. Ik presenteer het Ranktracker alles-in-één platform voor effectieve SEO

We hebben eindelijk de registratie voor Ranktracker helemaal gratis geopend!

Maak een gratis account aan

Of log in met uw gegevens

Waarom dit belangrijk is: Embeddings bepalen hoe AI uw content begrijpt – en of uw merk in gegenereerde antwoorden verschijnt.

Embeddingruimte / vectorruimte

De multidimensionale 'kaart' waar embeddings zich bevinden. Soortgelijke concepten worden gegroepeerd.

Waarom dit belangrijk is: Dit is het echte rangschikkingssysteem voor LLM's.

Entiteit

Een stabiel, door machines herkenbaar concept, zoals:

  • Ranktracker

  • Zoekwoordzoeker

  • SEO-platform

  • ChatGPT

  • Google Search

Waarom dit belangrijk is: LLM's leunen veel meer op entiteitsrelaties dan op het matchen van trefwoorden.

Few-Shot / Zero-Shot Learning

Het vermogen van een model om taken uit te voeren met minimale voorbeelden (few-shot) of zonder voorbeelden (zero-shot).

Fine-Tuning

Aanvullende training die wordt toegepast op een basismodel om het te specialiseren voor een specifiek domein of gedrag.

Generatieve zoekmachineoptimalisatie (GEO)

Optimalisatie specifiek voor door AI gegenereerde antwoorden. Richt zich op het worden van een geloofwaardige bron voor op LLM gebaseerde zoeksystemen.

GPU / TPU

Gespecialiseerde processors die worden gebruikt om LLM's op grote schaal te trainen.

Hallucinatie

Wanneer een LLM onjuiste, niet-onderbouwde of verzonnen informatie genereert.

Waarom dit belangrijk is: Hallucinaties nemen af naarmate modellen betere trainingsgegevens, betere embeddings en sterkere retrieval krijgen.

I–L: Training, interpretatie en taal

Inferentie

Het proces waarbij een LLM output genereert nadat de training is voltooid.

Instructieafstemming

Het trainen van een model om gebruikersinstructies betrouwbaar op te volgen.

Hierdoor voelen LLM's 'behulpzaam' aan.

Kennisgrens

De datum waarna het model geen trainingsgegevens meer heeft. Retrieval-augmented systemen omzeilen deze beperking gedeeltelijk.

Kennisgrafiek

Een gestructureerde weergave van entiteiten en hun relaties. Google Search en moderne LLM's gebruiken deze grafieken om begrip te verankeren.

Groot taalmodel (LLM)

Een op Transformer gebaseerd neuraal netwerk dat is getraind op grote datasets om taal te redeneren, te genereren en te begrijpen.

LoRA (Low-Rank Adaptation)

Een methode om modellen efficiënt te verfijnen zonder elke parameter te wijzigen.

M–Q: Modelgedrag en systemen

Mixture-of-Experts (MoE)

Een architectuur waarin meerdere 'deskundige' neurale submodellen verschillende taken uitvoeren, waarbij een routeringsnetwerk bepaalt welke deskundige moet worden geactiveerd.

Waarom dit belangrijk is: MoE-modellen (GPT-5, Gemini Ultra) zijn veel efficiënter en beter geschikt voor schaalvergroting.

Modelafstemming

Zie 'Afstemming' — richt zich op veiligheid en het matchen van intenties.

Modelgewichten

De numerieke parameters die tijdens de training zijn geleerd. Deze bepalen het gedrag van het model.

Multimodaal model

Een model dat meerdere soorten invoer accepteert:

  • tekst

  • afbeeldingen

  • audio

  • video

  • pdf's

  • code

Waarom dit belangrijk is: Multimodale LLM's (GPT-5, Gemini, Claude 3.5) kunnen hele webpagina's holistisch interpreteren.

Natuurlijke taalbegrip (NLU)

Het vermogen van het model om betekenis, context en intentie te interpreteren.

Neuraal netwerk

Een gelaagd systeem van onderling verbonden knooppunten (neuronen) dat wordt gebruikt om patronen te leren.

Ontologie

Een gestructureerde weergave van concepten en categorieën binnen een domein.

Aantal parameters

Het aantal aangeleerde gewichten in een model.

Waarom dit belangrijk is: Meer parameters → meer representatievermogen, maar niet altijd betere prestaties.

Positiecode

Informatie die aan tokens wordt toegevoegd, zodat het model de volgorde van woorden in een zin kent.

Prompt engineering

Het opstellen van inputs om gewenste outputs uit een LLM te verkrijgen.

R–T: Retrieval, Reasoning & Training Dynamics

RAG (Retrieval-Augmented Generation)

Een systeem waarbij een LLM externe documenten ophaalt voordat een antwoord wordt gegenereerd.

Waarom dit belangrijk is: RAG vermindert hallucinaties aanzienlijk en versterkt AI-zoekopdrachten (ChatGPT Search, Perplexity, Gemini).

Redeneringsengine

Het interne mechanisme waarmee een LLM een analyse in meerdere stappen kan uitvoeren.

Maak kennis met Ranktracker

Het alles-in-één platform voor effectieve SEO

Achter elk succesvol bedrijf staat een sterke SEO-campagne. Maar met talloze optimalisatietools en -technieken om uit te kiezen, kan het moeilijk zijn om te weten waar te beginnen. Nou, vrees niet meer, want ik heb precies het ding om te helpen. Ik presenteer het Ranktracker alles-in-één platform voor effectieve SEO

We hebben eindelijk de registratie voor Ranktracker helemaal gratis geopend!

Maak een gratis account aan

Of log in met uw gegevens

De volgende generatie LLM's (GPT-5, Claude 3.5) omvat:

  • gedachtegang

  • gebruik van hulpmiddelen

  • planning

  • zelfreflectie

Reinforcement Learning from Human Feedback (RLHF)

Een trainingsproces waarbij mensen modeloutputs beoordelen en zo het gedrag helpen sturen.

Herschikking

Een opvraagproces waarbij documenten opnieuw worden gerangschikt op basis van kwaliteit en relevantie.

AI-zoeksystemen gebruiken re-ranking om bronnen voor citaten te selecteren.

Semantisch zoeken

Zoeken op basis van embeddings in plaats van trefwoorden.

Zelfaandacht

Een mechanisme waarmee het model het belang van verschillende woorden in een zin ten opzichte van elkaar kan wegen.

Softmax

Een wiskundige functie die wordt gebruikt om logits om te zetten in waarschijnlijkheden.

Supervised Fine-Tuning (SFT)

Het model handmatig trainen op basis van geselecteerde voorbeelden van goed gedrag.

Token

De kleinste teksteenheid die een LLM verwerkt. Kan zijn:

  • een heel woord

  • een deelwoord

  • interpunctie

  • een symbool

Tokenisatie

Het proces waarbij tekst wordt opgedeeld in tokens.

Transformer

De neurale architectuur achter moderne LLM's.

U–Z: Geavanceerde concepten en opkomende trends

Vector Database

Een database die is geoptimaliseerd voor het opslaan en ophalen van embeddings. Wordt veel gebruikt in RAG-systemen.

Vectorovereenkomst

Een maatstaf voor hoe dicht twee embeddings bij elkaar liggen in de vectorruimte.

Waarom dit belangrijk is: Zowel citatieselectie als semantische matching zijn afhankelijk van gelijkenis.

Gewichtsbinding

Een techniek die wordt gebruikt om het aantal parameters te verminderen door gewichten over lagen te delen.

Zero-Shot-generalisatie

Het vermogen van het model om taken correct uit te voeren waarvoor het nooit specifiek is getraind.

Zero-Shot Retrieval

Wanneer een AI-systeem de juiste documenten opzoekt zonder voorafgaande voorbeelden.

Waarom deze woordenlijst belangrijk is voor AIO, SEO en AI Discovery

De verschuiving van zoekmachines → AI-engines betekent:

  • ontdekking is nu semantisch

  • rangschikking → citatie

  • trefwoorden → entiteiten

  • paginavariabelen → vectorvariabelen

  • SEO → AIO/GEO

Begrijp deze termen:

  • verbetert AIO-strategie

  • versterkt entiteitsoptimalisatie

  • verduidelijkt hoe AI-modellen uw merk interpreteren

  • helpt bij het diagnosticeren van AI-hallucinaties

  • bouwt betere contentclusters

  • begeleidt uw gebruik van de Ranktracker-tool

  • maakt uw marketing toekomstbestendig

Want hoe beter u de taal van LLM's begrijpt, hoe beter u begrijpt hoe u inzicht in deze systemen kunt krijgen.

Deze woordenlijst is uw referentiepunt — het woordenboek van het nieuwe AI-gedreven discovery-ecosysteem.

Felix Rose-Collins

Felix Rose-Collins

Ranktracker's CEO/CMO & Co-founder

Felix Rose-Collins is the Co-founder and CEO/CMO of Ranktracker. With over 15 years of SEO experience, he has single-handedly scaled the Ranktracker site to over 500,000 monthly visits, with 390,000 of these stemming from organic searches each month.

Begin Ranktracker te gebruiken... Gratis!

Ontdek wat uw website belemmert in de ranking.

Maak een gratis account aan

Of log in met uw gegevens

Different views of Ranktracker app