Betriebs Intelligenz

Welcome to WordPress. This is your first post. Edit or delete it, then start writing!

LLM, RAG, Vektordatenbank & Co. – Begriffe kurz erklärt

Kategorie · Knowledge Management

Begriffe kurz erklärt: LLM, RAG, Vektordatenbank, Knowledge Graph, Ontologie, Taxonomie

Schneller Durchblick für Projektteams: die wichtigsten KI- und Wissensmanagement-Begriffe kompakt, präzise und praxisnah.

~ Lesezeit wird berechnet… · Zuletzt aktualisiert: 15.08.2025

Autor: Chris

Einordnung & Nutzen

Projekte scheitern selten an der Technik – häufiger an Missverständnissen. Dieses Kurz-Glossar schafft eine gemeinsame Sprache für Teams aus IT, Fachbereich und Compliance.

Merke: Gemeinsame Begriffe sind die schnellste Abkürzung zu besseren Entscheidungen.

Begriffe & Kontext

LLM (Large Language Model): Sprachmodell, das Texte versteht und generiert; funktioniert statistisch, nicht „wissend“ – Qualität hängt von Daten & Prompt ab.

RAG (Retrieval-Augmented Generation): Die KI recherchiert zuerst in definierten Quellen und beantwortet erst danach – mit Belegen statt Bauchgefühl.

Vektordatenbank: Speichert numerische Repräsentationen (Embeddings) von Text/Bildern; ermöglicht semantische Suche nach Bedeutung statt Keywords.

Knowledge Graph: Graph aus Knoten (Entitäten) und Kanten (Beziehungen), der Fakten explizit verknüpft – ideal für Navigieren, Gründen und Erklären.

Ontologie: Formale Beschreibung von Klassen, Eigenschaften und Relationen in einem Fachgebiet – schafft präzise Bedeutungen.

Taxonomie: Hierarchische Einordnung (z. B. Kategorien/Tags) – die leichtgewichtige Schwester der Ontologie.

Praxis-Tipp: Starte mit einer Taxonomie. Wenn Entscheidungslogik & Beziehungen wichtiger werden, ergänze Ontologie/Graph.

Architektur / Kernidee

Mentales Modell: Inhalte → Taxonomie (Ordnung) → Ontologie (Bedeutung) → Graph (Beziehungen). Darauf: Embeddings in einer Vektordatenbank. Die KI nutzt RAG, um Antworten mit Belegen zu erzeugen.

KriteriumOption AOption BWann wählen?
OrganisationTaxonomieOntologie + GraphEinfach starten vs. komplexe Domäne
SucheKeyword-IndexVektor + RAGStichwortfragen vs. semantische Anliegen
BegründbarkeitNiedrigHoch (Quellen/Beziehungen)Compliance & Audit

Umsetzung – Schritt für Schritt

  1. Scope definieren: Welche Use-Cases (z. B. IT-FAQ, Produktwissen) zuerst?
  2. Taxonomie festlegen: Kategorien, Tags, Eigentümer, Review-Zyklen.
  3. Ontologie minimal: 5–10 Kernklassen + 5–10 Relationen skizzieren.
  4. Index & Embeddings: Dokumente chunken, Embeddings erzeugen, in Vektordatenbank speichern.
  5. RAG-Pipeline: Retrieval (Top-K, Filter), Zitationsformat, Antwortgrenzen implementieren.
  6. Feedback & Metriken: Down/Upvotes, Korrekturen, Precision/Recall messen.
{
  "taxonomy": ["Kategorie","Tag"],
  "ontology": { "classes": ["Produkt","Feature","Rolle"], "relations": ["nutzt","gehört_zu","verantwortet"] },
  "retrieval": { "top_k": 5, "filters": ["published:true"] },
  "generation": { "cite_sources": true, "max_tokens": 500 }
}
Praxis-Tipp: Dokumente so schneiden, dass ein Chunk eine vollständige Aussage enthält (200–400 Tokens) – das verbessert Treffer & Zitate.

Fehler & Anti-Patterns

  • Alles indexieren: Unkuratierte Masse erzeugt Rauschen. Gegenmaßnahme: Publishing-Workflow, Mindestqualität.
  • Nur Keywords: Ignoriert Bedeutung. Gegenmaßnahme: Embeddings + Hybrid-Suche (Keyword & Vektor).
  • Kein Ownership: Inhalte veralten. Gegenmaßnahme: Owner + Review-Intervalle.
  • Keine Belege: Antworten ohne Quellen. Gegenmaßnahme: RAG mit Zitationspflicht.

Governance, Datenschutz & Sicherheit (kurz)

Setze RBAC/ABAC konsequent um – vom Dokument bis zur Antwort. DSGVO: Datenminimierung, Speicherregionen, Löschkonzepte. Protokolliere Retrieval-Quellen für Audit-Trails.

Hinweis: Prompt- und Retrieval-Logs können personenbezogene Daten enthalten – entsprechend klassifizieren und schützen.

Metriken & Monitoring

  • Precision / Recall: Relevanz & Vollständigkeit der Treffer.
  • Deflection-Rate: Anteil gelöster Anfragen ohne menschliche Hilfe.
  • Source-Clicks: Klickrate auf Belege als Vertrauenssignal.
  • Freshness-Index: Anteil kürzlich geprüfter Inhalte.

Betrieb & Kosten

Kostenhebel: Token (Kontext & Antwort), Speicher (Vektoren/Versionen), Durchsatz. Latenz senken per Caching, Top-K-Tuning, kleineren Kontexten und schnelleren Embedding-Modellen.

Zusammenfassung – Key Takeaways

  • Taxonomie ordnet, Ontologie präzisiert, Graph verbindet – zusammen ergibt das Bedeutung.
  • Vektordatenbanken ermöglichen semantische Suche statt Keyword-Ratespiel.
  • RAG liefert begründete Antworten – ideal für Compliance & Vertrauen.
  • Messbare Metriken steuern Qualität und Adoption nachhaltig.

FAQ

Was ist der Unterschied zwischen Taxonomie und Ontologie?

Taxonomien ordnen Inhalte hierarchisch (Kategorien/Tags). Ontologien beschreiben zusätzlich Bedeutung und Relationen. Starte pragmatisch mit Taxonomie und erweitere bei Bedarf.

Warum brauche ich eine Vektordatenbank, wenn ich schon Suche habe?

Keyword-Suche findet wortgleiche Treffer. Vektorsuche findet inhaltlich ähnliche Passagen – besonders hilfreich bei natürlich formulierten Fragen und Synonymen.

Macht RAG ein LLM „wissend“?

Nein. RAG versorgt das Modell mit relevanten Belegen zur Antwortzeit. Das Modell bleibt generativ, aber antwortet fundierter und nachvollziehbarer.

Autor

Chris

Senior Tech Writer & Knowledge Architect

Schreibt über Wissensarchitektur, AI-Agents & Prozessdesign.

Tags

LLM RAG Vektordatenbank Knowledge Graph Ontologie Taxonomie

Blog

HTML Formatierungen

Sammlung – Reine HTML Design- & Formatierungsvorlagen für Blogposts Sammlung: Reine HTML Blog-Design- & Formatierungsvorlagen Kopieren & kombinieren – keine

Weiter lesen »