Das Enterprise KI-Glossar: RAG, Quality & Projekt-Architektur

Enterprise KI Glossar: RAG, AI Evals & Data Science Begriffe

Warum dieses Glossar? In der Welt von Enterprise AI reicht es nicht mehr aus, über „Chatbots“ zu sprechen. Wer KI-Projekte produktiv setzen will, muss die Architektur dahinter verstehen. Dieses Glossar definiert die geschäftskritischen Begriffe für RAG-Systeme und KI-Qualität.

1. Kernarchitektur: RAG-Systeme (Retrieval-Augmented Generation)

Definition: Ein Architektur-Muster, das ein Large Language Model (LLM) mit einem externen Information-Retrieval-System kombiniert. Vor der Antwortgenerierung wird eine Abfrage an eine Datenquelle durchgeführt, um relevante Kontexte zu extrahieren, die dem Modell als zusätzliche Eingabe (Prompt-Erweiterung) bereitgestellt werden.

Wirtschaftlicher Nutzen: RAG-Systeme verhindern, dass die KI auf veraltetes Wissen zurückgreift. Sie liefert Antworten basierend auf Ihren aktuellen Dokumenten, nicht auf Trainingsdaten von vor zwei Jahren.

Definition: Die Transformation von unstrukturierten Daten (Text, Bild, Audio) in hochdimensionale numerische Vektoren. Dieser Prozess bildet semantische Relationen in einem mathematischen Vektorraum ab, wobei inhaltlich verwandte Konzepte eine geringere Distanz (z. B. Kosinus-Ähnlichkeit) zueinander aufweisen.eihen).

Wirtschaftlicher Nutzen: Embeddings ermöglichen es der KI, die Bedeutung hinter Wörtern zu verstehen. So findet das System Informationen über „Kosteneffizienz“, auch wenn im Dokument nur von „Sparen“ die Rede ist.

Definition: Eine spezialisierte Datenbank-Infrastruktur zur Speicherung und Indizierung von Embeddings. Sie ermöglicht die effiziente Durchführung von Ähnlichkeitssuchen (Approximate Nearest Neighbor Search) in multidimensionalen Räumen.

Wirtschaftlicher Nutzen: Skalierbarkeit der AI-Infrastruktur. Sie erlaubt den performanten Zugriff auf Millionen von Datensätzen in Millisekunden, was die Betriebskosten bei wachsendem Datenvolumen stabilisiert.

Definition: Der Prozess der Segmentierung von Langtexten in kleinere, eigenständige Einheiten (Chunks). Beim Semantic Chunking erfolgt die Segmentierung nicht nach Zeichenbegrenzung, sondern basierend auf inhaltlichen Kohärenz-Schnittstellen, um die semantische Integrität der Informationseinheit zu wahren.

Wirtschaftlicher Nutzen: Nur wer „smart“ chunked (z.B. nach Absätzen statt nach Zeichenanzahl), stellt sicher, dass die KI den Kontext behält und präzise Quellen zitiert.

2. KI-Qualität & Validierung (AI Quality)

Definition: Frameworks zur quantitativen und qualitativen Bewertung von LLM-Outputs. Dabei werden vordefinierte Test-Sets genutzt, um die Performance gegen Benchmarks oder mittels LLM-as-a-judge (automatisierte Bewertung durch ein übergeordnetes Modell) zu validieren.

Wirtschaftlicher Nutzen: Evals sind die Qualitätskontrolle der KI. Ohne Evals wissen Sie nicht, ob Ihr System zu 60% oder 95% korrekt antwortet.

Definition: Der Prozess, die Antworten eines LLMs strikt auf verifizierte Datenquellen zu limitieren. Hierbei wird das Modell angewiesen, Behauptungen ausschließlich auf die im Prompt bereitgestellten Kontexte zu stützen.

Wirtschaftlicher Nutzen: Grounding ist das effektivste Mittel gegen Halluzinationen in Fachanwendungen.

Definition: Ein Phänomen, bei dem ein generatives Modell syntaktisch korrekte, aber faktisch falsche oder nicht durch die Quelldaten gedeckte Informationen erzeugt. Dies resultiert meist aus der probabilistischen Natur der Token-Vorhersage.

Wirtschaftlicher Nutzen: Ein hohes Risiko für die Reputation. Durch RAG und Grounding wird dieses Risiko im Enterprise-Umfeld minimiert.

Definition: Eine spezifische Evaluierungsmetrik, die misst, inwieweit die generierte Antwort konsistent mit den bereitgestellten Quelldokumenten ist. Sie prüft, ob alle in der Antwort enthaltenen Fakten direkt aus dem Kontext abgeleitet werden können.

Wirtschaftlicher Nutzen: Hohe Faithfulness garantiert, dass die KI keine eigenen (potenziell falschen) Fakten hinzuerfindet.

3. Strategisches Prompting & Engineering

Definition: Die methodische Strukturierung komplexer Eingabebefehle. Dies umfasst die Integration von System-Instruktionen, dynamischen Kontexten, Few-Shot-Beispielen und Output-Formatvorgaben in eine logische Abfolge.

Wirtschaftlicher Nutzen: Ermöglicht hochgradig personalisierte und konsistente KI-Antworten in automatisierten Workflows.

Definition: Die maximale Anzahl an Token (Wörtern/Zeichenteilen), die ein LLM in einem einzelnen Inferenzschritt verarbeiten kann. Dies umfasst sowohl die Eingabe (Prompt + Kontext) als auch die generierte Ausgabe.

Wirtschaftlicher Nutzen: Ein größeres Kontextfenster erlaubt es, ganze Bücher oder hunderte E-Mails in einer Anfrage zu analysieren.

Definition: Eine Technik, bei der dem Modell innerhalb des Prompts eine geringe Anzahl von Beispielen (Input-Output-Paare) bereitgestellt wird, um die gewünschte Aufgabe und das Zielformat ohne Parameter-Anpassung (Fine-Tuning) zu spezifizieren.

Wirtschaftlicher Nutzen: Erhöht die Trefferquote bei komplexen Aufgaben (z.B. Datenextraktion in ein bestimmtes JSON-Format) drastisch.

Warum technisches Vokabular für Entscheider zählt

Hinter jedem dieser Begriffe steckt ein strategischer Hebel für den Erfolg Ihres KI-Projekts. Wer AI Evals ignoriert, verliert die Kontrolle über die Qualität. Wer Chunking unterschätzt, mindert die Relevanz der Ergebnisse.

Bei SMADEV übersetzen wir diese Konzepte in funktionale Business-Lösungen. Wir bauen nicht nur KI, wir bauen validierte, skalierbare Systeme, die den Unternehmenserfolg messbar machen.