Research-Agent-Pattern: suchen, verifizieren, zitieren

Nutze eine bounded Research-Pipeline: suchen, lesen, Fakten extrahieren und mit Zitaten synthetisieren, ohne Tool-Spam und Endloszyklen.
Auf dieser Seite
  1. Pattern-Kern
  2. Problem
  3. Losung
  4. Wie Es Funktioniert
  5. Im Code Sieht Das So Aus
  6. So Sieht Es Zur Laufzeit Aus
  7. Wann Es Passt - Und Wann Nicht
  8. Passt
  9. Passt Nicht
  10. Unterschied Zu RAG
  11. Wann Research Nutzen (vs Andere Patterns)
  12. Wie Mit Anderen Patterns Kombinieren
  13. Kurz
  14. Vorteile Und Nachteile
  15. FAQ
  16. Was Danach

Pattern-Kern

Research Agent ist ein Pattern, bei dem der Agent gesteuerte Recherche uber eine begrenzte Pipeline ausfuhrt: search, dedupe, policy-check, read, extract notes mit provenance, und synthesize einer Antwort nur aus verifizierten Materialien.

Wann einsetzen: wenn Fakten aus mehreren Quellen gesammelt und verifiziert werden mussen, statt ohne Evidenz zu antworten.


Das ist nicht "einfach browse".

Eine Research-Pipeline enthalt typischerweise:

  • Search + dedupe URL: Duplikate schon vor dem Lesen entfernen
  • Read im Budget: Seiten innerhalb von Zeit- und Quellenlimits lesen
  • Extract facts: strukturierte Notizen erfassen
  • Verify claim/citation: zentrale Aussagen grundlegend prufen
  • Synthesize mit Quellen: finale Antwort mit Zitaten schreiben

Problem

Stell dir vor, du fragst:

"Finde die Regeln im neuen Gesetz und erklare sie kurz."

Der Agent hat "gegoogelt" und ein Fazit geliefert, aber ohne klaren Quellenpfad.

Dann entstehen typische Risiken:

  • oberflachliches Lesen (viel geoffnet, wenig wirklich gelesen)
  • Duplikate derselben Materialien
  • Vermischung von Fakten und Autoren-Interpretation
  • schwache oder falsche Zitate
  • keine Reproduzierbarkeit des Ergebnisses

Open-Web-Recherche ohne Prozess wird schnell chaotisch: viele Schritte, wenig Belegbarkeit.

Das ist das Kernproblem: ohne gesteuerte Pipeline ist schwer nachweisbar, dass ein Fazit auf realen und verifizierten Quellen basiert.

Losung

Research Agent arbeitet uber eine begrenzte Pipeline, nicht uber "such noch ein bisschen".

Analogie: wie journalistische Recherche mit Checkliste. Zuerst sammelst du Quellen und Notizen mit Links, dann schreibst du Schlussfolgerungen. Ohne das vermischt man leicht Fakten mit Annahmen.

Kernprinzip: writer bekommt Recht auf Synthesis erst nach extrahierten Notizen mit Herkunft.

Gesteuerter Prozess:

  1. Suche (Search): begrenzte Anzahl von Quellen finden
  2. Deduplizierung (Dedupe): URLs normalisieren und Duplikate entfernen
  3. Policy-Prufung (Policy Check): Quellen durch policy-gate lassen
  4. Lesen (Read): nur erlaubte Seiten lesen
  5. Extraktion (Extract): Notizen mit Herkunft bilden (url + quote)
  6. Verifikation (Verify): zentrale Aussagen prufen
  7. Synthese (Synthesize): Antwort nur aus Notizen schreiben

So kannst du an die Antwort anhangen:

  • welche Seiten gelesen wurden
  • welche Zitate extrahiert wurden
  • welche Aussagen gepruft wurden
  • warum die Pipeline beendet wurde (stop reason)

Funktioniert gut, wenn:

  • Suchschritt (Search) klare Grenzen hat (max_urls, max_seconds)
  • Leseschritt (Read) durch policy-check geht
  • Extraktionsschritt (Extract) volle Herkunft enthalt
  • Ausfuhrung Synthesis ohne notes verbietet

Sonst kann der Agent:

  • Quellen zitieren, die er nie gelesen hat
  • ungeprufte Fakten vermischen
  • Zitate fur Plausibilitat erfinden

Darum brauchst du budget caps, dedupe + cache, abgesicherte Ausfuhrung und Stop-Rules gegen endlose search-loop.

Wie Es Funktioniert

Diagram

Kritisches Prinzip: writer darf keine Quellen erfinden. Er arbeitet nur mit extracted notes.

Voller Ablauf: Search → Dedupe → Policy Check → Read → Extract → Verify → Synthesize

Suche (Search)
Ein oder zwei kontrollierte Search-Schritte mit Zeit- und URL-Limits.

Dedupe (Dedupe)
URLs werden normalisiert und Duplikate vor dem Lesen entfernt.

Policy-Prufung (Policy Check)
Nur erlaubte Domains, Content-Typen und sichere Risiko-Level werden verarbeitet.

Lesen (Read)
Seiten werden uber Cache geladen, damit derselbe Content nicht mehrfach gelesen wird.

Extraktion (Extract)
Fakten werden strukturiert gespeichert: url, quote, claims, timestamp.

Verifikation (Verify)
Basis-Spot-check: ob zentrale Aussagen durch Seitenzitate gestutzt sind.

Synthese (Synthesize)
Finale Antwort wird nur aus Notizen geschrieben und enthalt explizite Quellenzitate.

Im Code Sieht Das So Aus

PYTHON
budget = {"max_urls": 10, "max_seconds": 90}
urls = search_once(goal, k=8)
urls = dedupe_and_normalize(urls)[: budget["max_urls"]]

notes = []
for url in urls:
    if budget_exceeded(budget):
        break

    if not policy_allow(url):
        continue  # stop/skip reason kann geloggt werden

    page = fetch_with_cache(url)
    note = extract_structured_note(goal, page, url=url)
    notes.append(note)

if not notes:
    return partial_or_escalate("no_reliable_sources")

verified = spot_check_claims(notes, sample_size=2)
answer = synthesize_from_notes(goal, notes, verified=verified)

return answer

Wichtig sind hier nicht "schone Prompts", sondern gesteuerte Ausfuhrung: budget, dedupe, cache, stop reasons.

So Sieht Es Zur Laufzeit Aus

TEXT
Goal: Welche Einschrankungen hat der EU AI Act fur High-Risk-Systeme?

Search:
- 12 URLs gefunden
- nach Dedupe: 7 eindeutig

Read/Extract:
- 5 Seiten erfolgreich gelesen
- 2 wegen niedriger Relevanz abgelehnt

Verify:
- 2 zentrale Claims im Spot-check bestanden

Synthesize:
- kurze Zusammenfassung erstellt
- Zitate aus 3 Quellen hinzugefugt

Vollstandiges Research-Agent-Beispiel

PYPython
TSTypeScript · bald

Wann Es Passt - Und Wann Nicht

Passt

SituationWarum Research Passt
✅Externe Quellen sind Pflicht und Zitate werden benotigtResearch-Agent kann Quellen suchen, lesen und zitieren.
✅Thema ist dynamisch und interne Wissensbasis reicht nichtSuche im Runtime holt aktuelle Daten aus Open-Web oder externen Quellen.
✅Herkunft der Schlussfolgerungen ist erforderlichEs ist klar nachvollziehbar, woher zentrale Fakten und Claims stammen.
✅Ausfuhrungskontrolle vorhanden: Budgets und Tool-RegelnBegrenzte Recherche steuert Kosten und reduziert Tool-Loop-Risiko.

Passt Nicht

SituationWarum Research Nicht Passt
❌Daten liegen bereits in RAGExterne Suche ist unnötig, interne Suche reicht aus.
❌Kritische LatenzSuche und Lesen von Seiten sind meist teurer als lokale Generierung.
❌Kein policy-sicherer Browse-Pipeline vorhandenSicherer Kontrollrahmen fur Tools und Domains ist nicht gegeben.

Weil Research-Modus fast immer teurer ist als lokale Generierung oder RAG.

Unterschied Zu RAG

RAGResearch Agent
QuellenInterner Index/WissensbasisOpen-Web oder externe Quellen
FokusSchnelle geerdete AntwortSuche, Lesen und Verifikation von Fakten
KostenkontrolleRelativ stabilBraucht harte budget caps
HauptrisikoSchwache SucheTool-Zyklen und falsche Zitate

RAG arbeitet auf vorbereiteter knowledge layer. Research Agent beschafft Wissen extern im runtime.

Wann Research Nutzen (vs Andere Patterns)

Verwende Research Agent, wenn Fakten aus mehreren Quellen gesammelt und als strukturierte Evidenz zusammengefuhrt werden mussen.

Kurzer Test:

  • wenn du "Thema aus mehreren Quellen recherchieren und begrundetes Fazit geben" musst -> Research
  • wenn du "bereits gelieferten Datensatz analysieren" musst -> Data Analysis Agent
Vergleich mit anderen Patterns und Beispiele

Schneller Spickzettel:

Wenn die Aufgabe so aussieht...Nutze
Nach jedem Schritt muss entschieden werden, was als nachstes folgtReAct Agent
Gro?es Ziel muss zuerst in kleinere ausfuhrbare Aufgaben zerlegt werdenTask Decomposition Agent
Code muss ausgefuhrt, Ergebnisse gepruft und sicher iteriert werdenCode Execution Agent
Daten mussen analysiert und Schlussfolgerungen auf Analysebasis geliefert werdenData Analysis Agent
Recherche aus mehreren Quellen mit strukturierter Evidenz ist notigResearch Agent

Beispiele:

ReAct: "Finde Ursache fur API-Ausfall: Logs prufen -> Fehler ansehen -> nachstes Check anhand Ergebnis starten".

Task Decomposition: "Launch eines neuen Tarifs vorbereiten: Aufgabe in Subtasks fur Content, Technik, QA und Support zerlegen".

Code Execution: "Retention uber 12 Monate in Python berechnen und Formeln auf realen Daten validieren".

Data Analysis: "Sales-CSV analysieren: Trends, Ausreisser finden und kurze Schlussfolgerungen liefern".

Research: "Daten zu 5 Wettbewerbern aus mehreren Quellen sammeln und vergleichende Zusammenfassung erstellen".

Wie Mit Anderen Patterns Kombinieren

  • Research + RAG: verifizierte externe Erkenntnisse werden fur nachfolgende Antworten in interne knowledge base gespeichert.
  • Research + Guarded-Policy: Policies begrenzen erlaubte Tools, Domains und Datentypen.
  • Research + Fallback-Recovery: bei instabiler Search/Fetch fuhrt Agent Retry aus oder wechselt auf Fallback-Quellen.

Kurz

Kurzfazit

Research Agent:

  • fuhrt begrenzte Suche und Quellenlesen aus
  • extrahiert strukturierte Notizen mit Herkunft
  • verifiziert zentrale Claims vor der Antwort
  • liefert zitierbare Antwort ohne endlose Review-Loops

Vorteile Und Nachteile

Vorteile

sammelt Daten aus mehreren Quellen in einem Flow

fuhrt Links hinzu, dadurch ist Antwort leichter prufbar

deckt Themen besser ab als nur eine Quelle

praktisch fur Vergleich von Fakten und Versionen

Nachteile

arbeitet langsamer wegen Suche und Quellenlesen

kann ohne Limits zu viele Ressourcen verbrauchen

Antwortqualitat hangt von Quellqualitat ab

FAQ

Q: Kann man "bis zur Sicherheit" suchen?
A: Nein. Sicherheitsgefuhl ist keine Stop-Bedingung. Du brauchst klare Grenzen: max_urls, max_seconds und stagnation/convergence-Regeln.

Q: Warum ist URL-Dedupe wichtig?
A: Ohne Dedupe zahlt der Agent fur wiederholtes Lesen desselben Contents und verfalscht die effektive Quellenanzahl.

Q: Reicht es, am Ende einfach Zitate anzuhangen?
A: Nein. Zitate mussen aus extracted notes stammen und nicht "fur den Look" generiert werden.

Was Danach

Research Agent deckt open-world Suche und Zitierung ab.

Jetzt, wo du die Kern-Patterns kennst, kommt die nachste Frage: Wie kombiniert man sie in einem echten System? Wann nimmt man einen deterministischen Workflow und wann einen flexiblen Agenten? Und wie arbeiten sie zusammen?

Hybrid Workflow + Agent ->

⏱ 11 Min. Lesezeit ‱ Aktualisiert MĂ€r, 2026Schwierigkeit: ★★★
Praktische Fortsetzung

Beispiele zur Musterimplementierung

Setze das Thema direkt mit Beispielprojekten um.

Integriert: Production ControlOnceOnly
Guardrails fĂŒr Tool-Calling-Agents
Shippe dieses Pattern mit Governance:
  • Budgets (Steps / Spend Caps)
  • Tool-Permissions (Allowlist / Blocklist)
  • Kill switch & Incident Stop
  • Idempotenz & Dedupe
  • Audit logs & Nachvollziehbarkeit
Integrierter Hinweis: OnceOnly ist eine Control-Layer fĂŒr Production-Agent-Systeme.
Autor

Diese Dokumentation wird von Engineers kuratiert und gepflegt, die AI-Agenten in der Produktion betreiben.

Die Inhalte sind KI-gestĂŒtzt, mit menschlicher redaktioneller Verantwortung fĂŒr Genauigkeit, Klarheit und Produktionsrelevanz.

Patterns und Empfehlungen basieren auf Post-Mortems, Failure-Modes und operativen Incidents in produktiven Systemen, auch bei der Entwicklung und dem Betrieb von Governance-Infrastruktur fĂŒr Agenten bei OnceOnly.