Retrieval, das denkt, verifiziert und handelt
Mehr als einfache Suche. Agentic RAG kombiniert Multi-Hop-Retrieval mit Reranking, Verifikation und Werkzeug-Ausführung — jede Antwort ist verteidigbar und jede Aktion auditierbar.
Klassisches RAG liefert die am besten passenden Chunks zurück und hofft, dass ein Sprachmodell es sortiert. Agentic RAG umhüllt diesen Schritt mit einer Schleife: es plant das Retrieval, prüft Ergebnisse gegen Geschäftsregeln, traversiert verwandten Kontext bei Lücken und schreibt erst dann eine Antwort oder Aktion fest.
Wie eine einzelne Abfrage fließt
- 01
Retrieval planen
Ein Orchestrator zerlegt die Nutzerabsicht in Teilabfragen, wählt den richtigen Retriever (Vektor, BM25, Graph oder SQL) und plant sie parallel ein.
- 02
Abrufen und reranken
Cross-Encoder-Reranking auf die Top-Kandidaten hebt die Genauigkeit gegenüber reiner Ähnlichkeitssuche um 10–20%. Kandidaten mit niedriger Konfidenz lösen automatisch einen zweiten Retrieval-Hop aus.
- 03
Verifizieren und handeln
Eine Verifikationskette prüft Zitate, Geschäftsregeln und Richtlinien, bevor eine Antwort zurückkehrt. Wo erlaubt, schließt der Agent die Aktion ab — ein Ticket aktualisieren, einen API-Aufruf ausführen — statt die Arbeit an einen Menschen zurückzugeben.
Was ab Werk mitgeliefert wird
Multi-Hop-Retrieval
Folgt Verknüpfungen zwischen Dokumenten und Knowledge-Graph-Knoten, um Fragen zu beantworten, die sich über mehrere Quellen erstrecken — ohne Prompts mit irrelevantem Kontext aufzublähen.
Cross-Encoder-Reranking
Ein dedizierter Reranker bewertet jeden Kandidaten gegen die ursprüngliche Abfrage und hebt die Präzision dort, wo ungefähre Antworten nicht akzeptabel sind.
Citation-first-Ausgaben
Jede Aussage ist zur Quelle zurückverfolgbar — klickbare Zitate, Span-Level-Attribution und Konfidenzwerte zu jeder Antwort.
Human-in-the-Loop-Eskalation
Fällt die Konfidenz unter den Schwellenwert, routet die Pipeline an einen Menschen — mit angehängter vollständiger Begründungsspur, nicht einer kahlen Rückfrage.