• LLM

Das LLM-Glossar: Schlüsselbegriffe und Definitionen

  • Felix Rose-Collins
  • 6 min read

Einleitung

Die Welt der großen Sprachmodelle verändert sich schneller als jeder andere Bereich der Technologie. Jeden Monat tauchen neue Architekturen, neue Tools, neue Formen des Denkens, neue Abrufsysteme und neue Optimierungsstrategien auf – und jedes davon bringt eine weitere Ebene an Fachbegriffen mit sich.

Für Marketer, SEOs und Digitalstrategen besteht die Herausforderung nicht nur darin, LLMs zu verwenden, sondern auch darin, die Sprache der Technologie zu verstehen, die die Suche selbst prägt.

Dieses Glossar schafft Klarheit. Es definiert die wichtigsten Konzepte, die im Jahr 2025 von Bedeutung sind, erklärt sie in praktischer Hinsicht und verbindet sie mit AIO, GEO und der Zukunft der KI-gesteuerten Suche. Dies ist kein einfaches Wörterbuch – es ist eine Karte der Ideen, die moderne KI-Ökosysteme prägen.

Verwenden Sie es als grundlegende Referenz für alles, was mit LLMs, Einbettungen, Tokens, Training, Abruf, Schlussfolgerungen und Optimierung zu tun hat.

A–C: Kernkonzepte

Aufmerksamkeit

Der Mechanismus innerhalb eines Transformers, der es dem Modell ermöglicht, sich auf relevante Teile eines Satzes zu konzentrieren, unabhängig von ihrer Position. Er ermöglicht es LLMs, Kontext, Beziehungen und Bedeutung über lange Sequenzen hinweg zu verstehen.

Warum es wichtig ist: Aufmerksamkeit ist das Rückgrat aller modernen LLM-Intelligenz. Bessere Aufmerksamkeit → besseres Schlussfolgern → genauere Zitate.

KI-Optimierung (AIO)

Die Praxis, Ihre Inhalte so zu strukturieren, dass KI-Systeme sie genau verstehen, abrufen, überprüfen und zitieren können.

Warum das wichtig ist: AIO ist das neue SEO – grundlegend für die Sichtbarkeit in KI-Übersichten, ChatGPT-Suche und Perplexity.

Ausrichtung

Der Prozess des Trainings von Modellen, damit sie sich im Einklang mit menschlichen Absichten, Sicherheitsstandards und Plattformzielen verhalten.

Treffen Sie Ranktracker

Die All-in-One-Plattform für effektives SEO

Hinter jedem erfolgreichen Unternehmen steht eine starke SEO-Kampagne. Aber bei den zahllosen Optimierungstools und -techniken, die zur Auswahl stehen, kann es schwierig sein, zu wissen, wo man anfangen soll. Nun, keine Angst mehr, denn ich habe genau das Richtige, um zu helfen. Ich präsentiere die Ranktracker All-in-One-Plattform für effektives SEO

Wir haben endlich die Registrierung zu Ranktracker absolut kostenlos geöffnet!

Ein kostenloses Konto erstellen

Oder melden Sie sich mit Ihren Anmeldedaten an

Umfasst:

  • RLHF

  • SFT

  • konstitutionelle KI

  • Präferenzmodellierung

Warum es wichtig ist: Abgestimmte Modelle liefern vorhersehbarere, nützlichere Antworten – und bewerten Ihre Inhalte genauer.

Autoregressives Modell

Ein Modell, das jeweils ein Token nach dem anderen generiert, wobei jedes Token von den vorherigen Tokens beeinflusst wird.

Warum es wichtig ist: Dies erklärt, warum Klarheit und Struktur die Generierungsqualität verbessern – das Modell baut Bedeutung sequenziell auf.

Backpropagation

Der Trainingsalgorithmus, der die Modellgewichte durch Berechnung von Fehlergradienten anpasst. Auf diese Weise „lernt“ ein LLM.

Verzerrung

Muster in der Ausgabe des Modells, die durch verzerrte oder unausgewogene Trainingsdaten beeinflusst werden.

Warum das wichtig ist: Bias kann beeinflussen, wie Ihre Marke oder Ihr Thema in KI-generierten Antworten dargestellt oder ausgelassen wird.

Chain-of-Thought (CoT)

Eine Argumentationstechnik, bei der das Modell Probleme Schritt für Schritt aufschlüsselt, anstatt zu einer endgültigen Antwort zu springen.

Warum das wichtig ist: Intelligentere Modelle (GPT-5, Claude 3.5, Gemini 2.0) verwenden interne Gedankengänge, um tiefere Schlussfolgerungen zu ziehen.

Zitate (in der KI-Suche)

Die Quellen, die KI-Systeme unter den generierten Antworten angeben. Entspricht der „Position Null” bei der generativen Suche.

Warum das wichtig ist: Zitiert zu werden ist der neue Maßstab für Sichtbarkeit.

Kontextfenster

Die Textmenge, die ein LLM in einer Interaktion verarbeiten kann.

Reicht von:

  • 32k (ältere Modelle)

  • 200k–2M (moderne Modelle)

  • 10 Mio.+ Token in Frontier-Architekturen

Warum das wichtig ist: Große Fenster ermöglichen es Modellen, ganze Websites oder Dokumente auf einmal zu analysieren – entscheidend für AIO.

D–H: Mechanismen und Modelle

Decoder-Only-Transformer

Die Architektur hinter GPT-Modellen. Sie ist auf Generierung und Schlussfolgerungen spezialisiert.

Einbettung

Eine mathematische Darstellung von Bedeutung. Wörter, Sätze, Dokumente und sogar Marken werden in Vektoren umgewandelt.

Treffen Sie Ranktracker

Die All-in-One-Plattform für effektives SEO

Hinter jedem erfolgreichen Unternehmen steht eine starke SEO-Kampagne. Aber bei den zahllosen Optimierungstools und -techniken, die zur Auswahl stehen, kann es schwierig sein, zu wissen, wo man anfangen soll. Nun, keine Angst mehr, denn ich habe genau das Richtige, um zu helfen. Ich präsentiere die Ranktracker All-in-One-Plattform für effektives SEO

Wir haben endlich die Registrierung zu Ranktracker absolut kostenlos geöffnet!

Ein kostenloses Konto erstellen

Oder melden Sie sich mit Ihren Anmeldedaten an

Warum das wichtig ist: Einbettungen bestimmen, wie KI Ihre Inhalte versteht – und ob Ihre Marke in generierten Antworten erscheint.

Einbettungsraum/Vektorraum

Die mehrdimensionale „Karte“, auf der Einbettungen existieren. Ähnliche Konzepte werden gruppiert.

Warum das wichtig ist: Dies ist das eigentliche Ranking-System für LLMs.

Entität

Ein stabiles, maschinell erkennbares Konzept wie beispielsweise:

  • Ranktracker

  • Keyword-Finder

  • SEO-Plattform

  • ChatGPT

  • Google-Suche

Warum das wichtig ist: LLMs stützen sich weitaus mehr auf Entitätsbeziehungen als auf Keyword-Matching.

Few-Shot-/Zero-Shot-Lernen

Die Fähigkeit eines Modells, Aufgaben mit minimalen Beispielen (Few-Shot) oder ohne Beispiele (Zero-Shot) auszuführen.

Feinabstimmung

Zusätzliches Training, das auf ein Basismodell angewendet wird, um es für einen bestimmten Bereich oder ein bestimmtes Verhalten zu spezialisieren.

Generative Suchmaschinenoptimierung (GEO)

Optimierung speziell für KI-generierte Antworten. Konzentriert sich darauf, eine glaubwürdige Quelle für LLM-basierte Suchsysteme zu werden.

GPU / TPU

Spezialisierte Prozessoren, die zum Trainieren von LLMs in großem Maßstab verwendet werden.

Halluzination

Wenn ein LLM falsche, unbegründete oder erfundene Informationen generiert.

Warum das wichtig ist: Halluzinationen nehmen ab, wenn Modelle bessere Trainingsdaten, bessere Einbettungen und eine stärkere Wiederauffindung erhalten.

I–L: Training, Interpretation und Sprache

Inferenz

Der Prozess der Generierung von Ausgaben aus einem LLM nach Abschluss des Trainings.

Anweisungsoptimierung

Training eines Modells, damit es Benutzeranweisungen zuverlässig befolgt.

Dadurch wirken LLMs „hilfreich“.

Wissensgrenze

Das Datum, nach dem das Modell keine Trainingsdaten mehr hat. Retrieval-augmented-Systeme umgehen diese Einschränkung teilweise.

Wissensgraph

Eine strukturierte Darstellung von Entitäten und ihren Beziehungen. Die Google-Suche und moderne LLMs verwenden diese Graphen, um das Verständnis zu fundieren.

Großes Sprachmodell (LLM)

Ein Transformer-basiertes neuronales Netzwerk, das anhand großer Datensätze trainiert wurde, um Sprache zu verstehen, zu generieren und zu interpretieren.

LoRA (Low-Rank Adaptation)

Eine Methode zur effizienten Feinabstimmung von Modellen, ohne jeden Parameter zu ändern.

M–Q: Modellverhalten und Systeme

Mixture-of-Experts (MoE)

Eine Architektur, bei der mehrere „Experten”-Neuralnetz-Submodelle verschiedene Aufgaben übernehmen, wobei ein Routing-Netzwerk entscheidet, welcher Experte aktiviert wird.

Warum das wichtig ist: MoE-Modelle (GPT-5, Gemini Ultra) sind weitaus effizienter und leistungsfähiger in großem Maßstab.

Modellanpassung

Siehe „Ausrichtung“ – konzentriert sich auf Sicherheit und Absichtsübereinstimmung.

Modellgewichte

Die während des Trainings erlernten numerischen Parameter. Diese definieren das Verhalten des Modells.

Multimodales Modell

Ein Modell, das mehrere Arten von Eingaben akzeptiert:

  • Text

  • Bilder

  • Audio

  • Video

  • PDFs

  • Code

Warum das wichtig ist: Multimodale LLMs (GPT-5, Gemini, Claude 3.5) können ganze Webseiten ganzheitlich interpretieren.

Verständnis natürlicher Sprache (NLU)

Die Fähigkeit des Modells, Bedeutung, Kontext und Absicht zu interpretieren.

Neuronales Netzwerk

Ein mehrschichtiges System miteinander verbundener Knoten (Neuronen), das zum Erlernen von Mustern verwendet wird.

Ontologie

Eine strukturierte Darstellung von Konzepten und Kategorien innerhalb eines Bereichs.

Parameteranzahl

Die Anzahl der gelernten Gewichte in einem Modell.

Warum das wichtig ist: Mehr Parameter → mehr Darstellungskapazität, aber nicht immer bessere Leistung.

Positionskodierung

Informationen, die zu Tokens hinzugefügt werden, damit das Modell die Reihenfolge der Wörter in einem Satz erkennt.

Prompt Engineering

Erstellen von Eingaben, um gewünschte Ausgaben aus einem LLM zu erhalten.

R–T: Retrieval, Reasoning & Training Dynamics

RAG (Retrieval-Augmented Generation)

Ein System, bei dem ein LLM externe Dokumente abruft, bevor es eine Antwort generiert.

Warum es wichtig ist: RAG reduziert Halluzinationen drastisch und unterstützt die KI-Suche (ChatGPT Search, Perplexity, Gemini).

Reasoning Engine

Der interne Mechanismus, der es einem LLM ermöglicht, mehrstufige Analysen durchzuführen.

Treffen Sie Ranktracker

Die All-in-One-Plattform für effektives SEO

Hinter jedem erfolgreichen Unternehmen steht eine starke SEO-Kampagne. Aber bei den zahllosen Optimierungstools und -techniken, die zur Auswahl stehen, kann es schwierig sein, zu wissen, wo man anfangen soll. Nun, keine Angst mehr, denn ich habe genau das Richtige, um zu helfen. Ich präsentiere die Ranktracker All-in-One-Plattform für effektives SEO

Wir haben endlich die Registrierung zu Ranktracker absolut kostenlos geöffnet!

Ein kostenloses Konto erstellen

Oder melden Sie sich mit Ihren Anmeldedaten an

LLMs der nächsten Generation (GPT-5, Claude 3.5) umfassen:

  • Gedankenkette

  • Werkzeuggebrauch

  • Planung

  • Selbstreflexion

Verstärkendes Lernen aus menschlichem Feedback (RLHF)

Ein Trainingsprozess, bei dem Menschen die Ergebnisse des Modells bewerten und so dessen Verhalten steuern.

Re-Ranking

Ein Abrufprozess, bei dem Dokumente nach Qualität und Relevanz neu geordnet werden.

KI-Suchsysteme verwenden Re-Ranking, um Zitierquellen auszuwählen.

Semantische Suche

Suche, die eher auf Einbettungen als auf Schlüsselwörtern basiert.

Selbstaufmerksamkeit

Ein Mechanismus, der es dem Modell ermöglicht, die relative Bedeutung verschiedener Wörter in einem Satz zueinander zu gewichten.

Softmax

Eine mathematische Funktion, mit der Logits in Wahrscheinlichkeiten umgewandelt werden.

Überwachtes Fine-Tuning (SFT)

Manuelles Trainieren des Modells anhand ausgewählter Beispiele für gutes Verhalten.

Token

Die kleinste Texteinheit, die ein LLM verarbeitet. Kann sein:

  • ein ganzes Wort

  • ein Teilwort

  • Zeichensetzung

  • ein Symbol

Tokenisierung

Der Prozess der Aufteilung von Text in Token.

Transformer

Die neuronale Architektur hinter modernen LLMs.

U–Z: Fortgeschrittene Konzepte und neue Trends

Vektordatenbank

Eine Datenbank, die für die Speicherung und den Abruf von Einbettungen optimiert ist. Wird häufig in RAG-Systemen verwendet.

Vektorsimilarität

Ein Maß dafür, wie nah zwei Einbettungen im Vektorraum beieinander liegen.

Warum dies wichtig ist: Die Auswahl von Zitaten und die semantische Übereinstimmung hängen beide von der Ähnlichkeit ab.

Gewichtungsbindung

Eine Technik, die verwendet wird, um die Anzahl der Parameter zu reduzieren, indem Gewichte über Schichten hinweg geteilt werden.

Zero-Shot-Generalisierung

Die Fähigkeit des Modells, Aufgaben korrekt auszuführen, für die es nie speziell trainiert wurde.

Zero-Shot-Retrieval

Wenn ein KI-System ohne vorherige Beispiele korrekte Dokumente abruft.

Warum dieses Glossar für AIO, SEO und KI-Entdeckung wichtig ist

Der Wechsel von Suchmaschinen zu KI-Engines bedeutet:

  • Entdeckung ist jetzt semantisch

  • Ranking → Zitat

  • Schlüsselwörter → Entitäten

  • Seitenfaktoren → Vektorfaktoren

  • SEO → AIO/GEO

Verständnis dieser Begriffe:

  • verbessert die AIO-Strategie

  • stärkt die Entitätsoptimierung

  • verdeutlicht, wie KI-Modelle Ihre Marke interpretieren

  • hilft bei der Diagnose von KI-Halluzinationen

  • baut bessere Content-Cluster auf

  • leitet Sie bei der Verwendung Ihres Ranktracker-Tools an

  • macht Ihr Marketing zukunftssicher

Denn je besser Sie die Sprache von LLMs verstehen, desto besser verstehen Sie, wie Sie darin Sichtbarkeit erlangen können.

Dieses Glossar ist Ihr Bezugspunkt – das Wörterbuch des neuen KI-gesteuerten Discovery-Ökosystems.

Felix Rose-Collins

Felix Rose-Collins

Ranktracker's CEO/CMO & Co-founder

Felix Rose-Collins is the Co-founder and CEO/CMO of Ranktracker. With over 15 years of SEO experience, he has single-handedly scaled the Ranktracker site to over 500,000 monthly visits, with 390,000 of these stemming from organic searches each month.

Starten Sie mit Ranktracker... kostenlos!

Finden Sie heraus, was Ihre Website vom Ranking abhält.

Ein kostenloses Konto erstellen

Oder melden Sie sich mit Ihren Anmeldedaten an

Different views of Ranktracker app