Einordnung & Nutzen
Projekte scheitern selten an der Technik – häufiger an Missverständnissen. Dieses Kurz-Glossar schafft eine gemeinsame Sprache für Teams aus IT, Fachbereich und Compliance.
Begriffe & Kontext
LLM (Large Language Model): Sprachmodell, das Texte versteht und generiert; funktioniert statistisch, nicht „wissend“ – Qualität hängt von Daten & Prompt ab.
RAG (Retrieval-Augmented Generation): Die KI recherchiert zuerst in definierten Quellen und beantwortet erst danach – mit Belegen statt Bauchgefühl.
Vektordatenbank: Speichert numerische Repräsentationen (Embeddings) von Text/Bildern; ermöglicht semantische Suche nach Bedeutung statt Keywords.
Knowledge Graph: Graph aus Knoten (Entitäten) und Kanten (Beziehungen), der Fakten explizit verknüpft – ideal für Navigieren, Gründen und Erklären.
Ontologie: Formale Beschreibung von Klassen, Eigenschaften und Relationen in einem Fachgebiet – schafft präzise Bedeutungen.
Taxonomie: Hierarchische Einordnung (z. B. Kategorien/Tags) – die leichtgewichtige Schwester der Ontologie.
Architektur / Kernidee
Mentales Modell: Inhalte → Taxonomie (Ordnung) → Ontologie (Bedeutung) → Graph (Beziehungen). Darauf: Embeddings in einer Vektordatenbank. Die KI nutzt RAG, um Antworten mit Belegen zu erzeugen.
Kriterium | Option A | Option B | Wann wählen? |
---|---|---|---|
Organisation | Taxonomie | Ontologie + Graph | Einfach starten vs. komplexe Domäne |
Suche | Keyword-Index | Vektor + RAG | Stichwortfragen vs. semantische Anliegen |
Begründbarkeit | Niedrig | Hoch (Quellen/Beziehungen) | Compliance & Audit |
Umsetzung – Schritt für Schritt
- Scope definieren: Welche Use-Cases (z. B. IT-FAQ, Produktwissen) zuerst?
- Taxonomie festlegen: Kategorien, Tags, Eigentümer, Review-Zyklen.
- Ontologie minimal: 5–10 Kernklassen + 5–10 Relationen skizzieren.
- Index & Embeddings: Dokumente chunken, Embeddings erzeugen, in Vektordatenbank speichern.
- RAG-Pipeline: Retrieval (Top-K, Filter), Zitationsformat, Antwortgrenzen implementieren.
- Feedback & Metriken: Down/Upvotes, Korrekturen, Precision/Recall messen.
{
"taxonomy": ["Kategorie","Tag"],
"ontology": { "classes": ["Produkt","Feature","Rolle"], "relations": ["nutzt","gehört_zu","verantwortet"] },
"retrieval": { "top_k": 5, "filters": ["published:true"] },
"generation": { "cite_sources": true, "max_tokens": 500 }
}
Fehler & Anti-Patterns
- Alles indexieren: Unkuratierte Masse erzeugt Rauschen. Gegenmaßnahme: Publishing-Workflow, Mindestqualität.
- Nur Keywords: Ignoriert Bedeutung. Gegenmaßnahme: Embeddings + Hybrid-Suche (Keyword & Vektor).
- Kein Ownership: Inhalte veralten. Gegenmaßnahme: Owner + Review-Intervalle.
- Keine Belege: Antworten ohne Quellen. Gegenmaßnahme: RAG mit Zitationspflicht.
Governance, Datenschutz & Sicherheit (kurz)
Setze RBAC/ABAC konsequent um – vom Dokument bis zur Antwort. DSGVO: Datenminimierung, Speicherregionen, Löschkonzepte. Protokolliere Retrieval-Quellen für Audit-Trails.
Metriken & Monitoring
- Precision / Recall: Relevanz & Vollständigkeit der Treffer.
- Deflection-Rate: Anteil gelöster Anfragen ohne menschliche Hilfe.
- Source-Clicks: Klickrate auf Belege als Vertrauenssignal.
- Freshness-Index: Anteil kürzlich geprüfter Inhalte.
Betrieb & Kosten
Kostenhebel: Token (Kontext & Antwort), Speicher (Vektoren/Versionen), Durchsatz. Latenz senken per Caching, Top-K-Tuning, kleineren Kontexten und schnelleren Embedding-Modellen.
Zusammenfassung – Key Takeaways
- Taxonomie ordnet, Ontologie präzisiert, Graph verbindet – zusammen ergibt das Bedeutung.
- Vektordatenbanken ermöglichen semantische Suche statt Keyword-Ratespiel.
- RAG liefert begründete Antworten – ideal für Compliance & Vertrauen.
- Messbare Metriken steuern Qualität und Adoption nachhaltig.
FAQ
Was ist der Unterschied zwischen Taxonomie und Ontologie?
Taxonomien ordnen Inhalte hierarchisch (Kategorien/Tags). Ontologien beschreiben zusätzlich Bedeutung und Relationen. Starte pragmatisch mit Taxonomie und erweitere bei Bedarf.
Warum brauche ich eine Vektordatenbank, wenn ich schon Suche habe?
Keyword-Suche findet wortgleiche Treffer. Vektorsuche findet inhaltlich ähnliche Passagen – besonders hilfreich bei natürlich formulierten Fragen und Synonymen.
Macht RAG ein LLM „wissend“?
Nein. RAG versorgt das Modell mit relevanten Belegen zur Antwortzeit. Das Modell bleibt generativ, aber antwortet fundierter und nachvollziehbarer.