Agenten-Memory: Was er sich merkt und warum

Ohne das wäre jede neue Aktion wie der erste Versuch. Manchmal endlos.
Auf dieser Seite
  1. Was Agenten-Memory ist und woraus es besteht
  2. Kurzzeit- vs Langzeit-Memory
  3. Was der Agent innerhalb einer Aufgabe merkt
  4. Was der Agent zwischen Aufgaben merken kann
  5. Memory-Limit: Kontextfenster
  6. Im Code sieht das so aus
  7. 1) Kurzzeit-Memory: was der Agent jetzt "sieht"
  8. 2) Kontextlimit: Altes kann herausfallen
  9. 3) Langzeit-Memory: was wir zwischen Aufgaben speichern
  10. 4) In der neuen Aufgabe lesen wir diese Daten zurück
  11. 5) Der Agent erstellt die Antwort bereits mit Memory
  12. Analogie aus dem Alltag
  13. Kurz
  14. FAQ
  15. Was als Nächstes

Wenn ein Agent eine Aufgabe ausführt, reagiert er nicht nur auf die aktuelle Anweisung.

Er berücksichtigt, was vorher schon passiert ist: was du angefragt hast, was er bereits getan hat und welches Ergebnis er erhalten hat.


Ohne das wäre jede neue Aktion wie ein erster Versuch.

Er würde denselben API-Aufruf erneut machen oder einen Schritt wiederholen, der schon nicht funktioniert hat

— manchmal endlos.


Genau Memory erlaubt es dem Agenten, vorwärts zu gehen statt im Kreis.

Was Agenten-Memory ist und woraus es besteht

KI-Agent: Agenten-Memory: was er sich merkt und warum

Agenten-Memory ist kein einzelner Ort, an dem alle Informationen liegen.

Es ist ein Satz von Mechanismen, die ihm erlauben:

  • Kontext der aktuellen Aufgabe zu speichern
  • und Erfahrung aus früheren Aufgaben zu nutzen

Ohne diese Mechanismen weiß der Agent nicht: was schon erledigt wurde
was funktioniert hat
und was als Nächstes zu tun ist

Kurzzeit- vs Langzeit-Memory

Diagram

Nicht jedes Agenten-Memory ist gleich.

Es gibt Memory während einer Aufgabe.
Und es gibt Memory zwischen Aufgaben.


Kurzzeit-Memory existiert nur während der Aufgabe.

Das ist der Kontext der aktuellen Unterhaltung:

  • deine Anweisungen
  • Antworten des Agenten
  • Ergebnisse vorheriger Schritte

Wenn die Aufgabe abgeschlossen ist, verschwindet dieser Kontext.

Beim nächsten Mal startet der Agent "auf einem leeren Blatt".


Langzeit-Memory bleibt zwischen Aufgaben erhalten.

Damit kann der Agent:

  • Einstellungen merken
  • frühere Erfahrung berücksichtigen
  • Daten aus vergangenen Aufgaben verwenden

Ohne sie ist jede neue Aufgabe wie die erste.


Ein einfaches Beispiel:

Du sagst zum Agenten: "Erstelle den Bericht wie beim letzten Mal."

Mit nur Kurzzeit-Memory weiß er nicht, was "beim letzten Mal" war.
Mit Langzeit-Memory kennt er Format, Quellen und Struktur und kann es wiederholen.

KurzzeitLangzeit
Arbeitet während der Aufgabe
Bleibt zwischen Aufgaben erhalten
Hat Grenzen
Braucht Speicher

Was der Agent innerhalb einer Aufgabe merkt

Wenn der Agent an einer Aufgabe arbeitet, "sieht" er nur die aktuelle Unterhaltung.

Alles, was du schreibst.
Alles, was der Agent antwortet.
Alle Ergebnisse, die er von Tools bekommt.

Das ist sein Kurzzeit-Memory: Kontext.


Er nutzt ihn, um:

  • Zu verstehen, was gerade passiert
  • Zu entscheiden, welchen Schritt er als Nächstes macht
  • Und nicht zu wiederholen, was schon getan wurde

Aber dieser Kontext ist nicht unbegrenzt.

Wenn die Unterhaltung zu lang wird, fällt ein Teil alter Information einfach heraus.

Der Agent sieht sie nicht mehr.

Und er kann:

  • Die ursprüngliche Anforderung vergessen
  • Ein wichtiges Detail verlieren
  • Oder eine Aktion erneut ausführen, die schon lief

Was der Agent zwischen Aufgaben merken kann

Wenn eine Aufgabe endet, verschwindet der Gesprächskontext.

Aber das bedeutet nicht, dass der Agent alles für immer vergessen muss.

Er kann einen Teil der Information im externen Memory speichern.


Das kann sein:

  • Eine Datenbank
  • Eine Datei
  • Oder ein anderer Speicher

Dort schreibt der Agent:

  • Einstellungen
  • Frühere Entscheidungen
  • Oder wichtige Fakten

Und bei der nächsten Aufgabe kann er diese Daten wieder lesen.

So merkt er sich:

  • Wie du arbeitest
  • Welche Formate du nutzt
  • Oder was er zuvor gemacht hat

Selbst wenn die vorige Unterhaltung längst beendet ist.

Memory-Limit: Kontextfenster

Das Kurzzeit-Memory des Agenten hat Grenzen.

Er kann nicht die ganze Unterhaltung vollständig merken.

Es gibt ein maximales Kontextvolumen, das das Modell gleichzeitig "sehen" kann.

Das nennt man Kontextfenster.


Wenn eine Unterhaltung zu lang wird, passt ein Teil alter Information einfach nicht mehr hinein.

Sie fällt aus dem Kontext.

Der Agent berücksichtigt sie nicht mehr.


Dadurch kann er:

  • Die ursprüngliche Anforderung vergessen
  • Ein wichtiges Detail verlieren
  • Oder eine Aktion wiederholen, die er schon vorher gemacht hat

Im Code sieht das so aus

Unten steht dasselbe Prinzip in einfachem Format:
es gibt Kurzzeit-Memory (Aufgabenkontext) und Langzeit-Memory (externer Speicher zwischen Aufgaben).

1) Kurzzeit-Memory: was der Agent jetzt "sieht"

Das sind aktuelle Nachrichten und Ergebnisse der letzten Schritte:

PYTHON
short_memory = [
    {"role": "user", "content": "Erstelle einen wöchentlichen Verkaufsbericht"},
    {"role": "assistant", "content": "Okay, ich beginne mit der Datensammlung"},
    {"role": "tool", "content": "sales_total=12400"},
]

2) Kontextlimit: Altes kann herausfallen

Wenn Kontext begrenzt ist, behält das System nur die letzten Elemente:

PYTHON
MAX_ITEMS = 3
short_memory = short_memory[-MAX_ITEMS:]

Dadurch sieht der Agent frühe Anweisungen möglicherweise nicht.

3) Langzeit-Memory: was wir zwischen Aufgaben speichern

Separat halten wir einen Speicher mit nützlichen Fakten:

PYTHON
long_memory_store = {
    "user:anna": {
        "report_format": "short-bullets",
        "currency": "USD",
    }
}

4) In der neuen Aufgabe lesen wir diese Daten zurück

Vor der Antwort lädt der Agent gespeicherte Präferenzen:

PYTHON
user_prefs = long_memory_store.get("user:anna", {})

task_context = {
    "request": "Erstelle den Bericht wie beim letzten Mal",
    "prefs": user_prefs,
}

5) Der Agent erstellt die Antwort bereits mit Memory

PYTHON
def build_report(context: dict):
    fmt = context["prefs"].get("report_format", "default")
    currency = context["prefs"].get("currency", "USD")
    return f"Report format={fmt}, currency={currency}"


result = build_report(task_context)
# "Report format=short-bullets, currency=USD"

Ohne Langzeit-Memory wäre das format=default.

Vollständiges Implementierungsbeispiel mit angebundener LLM

PYPython
TSTypeScript · bald

Analogie aus dem Alltag

Stell dir vor, du telefonierst, hörst aber nur die letzten 30 Sekunden des Gesprächs.

Du weißt, was die andere Person gerade gesagt hat.
Du erinnerst die letzte Antwort.
Und du kannst das Gespräch fortsetzen.


Aber wenn sie sagt:

"Wie ich am Anfang schon erklärt habe..."

— dann hast du diesen Anfang nicht gehört.

Er ist einfach herausgefallen.


Und du kannst:

  • Dasselbe noch einmal nachfragen
  • Die Aufgabe falsch verstehen
  • Oder am Thema vorbeireden

Wenn du Notizen aus früheren Gesprächen hast, kannst du sie lesen und den Kontext verstehen.

Genau so nutzt ein Agent Kurzzeit- und Langzeit-Memory.

Kurz

Kurzfazit

Ein Agent hat zwei Arten von Memory:

  • Kurzzeit: Kontext der aktuellen Aufgabe
  • Langzeit: gespeicherte Daten zwischen Aufgaben

Kurzzeit-Memory ist begrenzt:
ein Teil der Informationen kann aus dem Kontext verschwinden.

Langzeit-Memory erlaubt es:
Erfahrung zu speichern und später zu verwenden.

FAQ

Q: Merkt sich ein Agent frühere Aufgaben?
A: Nur wenn diese Information im Langzeit-Memory außerhalb der aktuellen Unterhaltung gespeichert ist.

Q: Warum kann ein Agent die ursprüngliche Anweisung vergessen?
A: Wegen Grenzen des Kontextfensters: ein Teil älterer Information kann aus dem Kurzzeit-Memory herausfallen.

Q: Wozu braucht ein Agent Langzeit-Memory?
A: Um wichtige Daten zwischen Aufgaben zu speichern und künftig zu verwenden.

Was als Nächstes

Jetzt weißt du, was sich der Agent merkt und wie ihm das hilft, voranzukommen.

Aber Memory ist nur ein Teil des Bildes.

Denn der Agent merkt sich nicht nur Aktionen.
Er führt sie aus.

Und nicht alle Aktionen sind gleich sicher.

Eine Sache ist, Daten zu lesen.
Eine andere ist, sie zu ändern.
Oder zu löschen.
Oder Geld für API-Aufrufe auszugeben.

Darum muss ein Agent nicht nur wissen, was zu tun ist.
Er muss wissen, was er tun darf.

⏱️ 7 Min. LesezeitAktualisiert Mär, 2026Schwierigkeit: ★★☆
Praktische Fortsetzung

Beispiele zur Musterimplementierung

Setze das Thema direkt mit Beispielprojekten um.

Integriert: Production ControlOnceOnly
Guardrails für Tool-Calling-Agents
Shippe dieses Pattern mit Governance:
  • Budgets (Steps / Spend Caps)
  • Tool-Permissions (Allowlist / Blocklist)
  • Kill switch & Incident Stop
  • Idempotenz & Dedupe
  • Audit logs & Nachvollziehbarkeit
Integrierter Hinweis: OnceOnly ist eine Control-Layer für Production-Agent-Systeme.
Autor

Diese Dokumentation wird von Engineers kuratiert und gepflegt, die AI-Agenten in der Produktion betreiben.

Die Inhalte sind KI-gestützt, mit menschlicher redaktioneller Verantwortung für Genauigkeit, Klarheit und Produktionsrelevanz.

Patterns und Empfehlungen basieren auf Post-Mortems, Failure-Modes und operativen Incidents in produktiven Systemen, auch bei der Entwicklung und dem Betrieb von Governance-Infrastruktur für Agenten bei OnceOnly.