Wenn ein Agent eine Aufgabe ausführt, reagiert er nicht nur auf die aktuelle Anweisung.
Er berücksichtigt, was vorher schon passiert ist: was du angefragt hast, was er bereits getan hat und welches Ergebnis er erhalten hat.
Ohne das wäre jede neue Aktion wie ein erster Versuch.
Er würde denselben API-Aufruf erneut machen oder einen Schritt wiederholen, der schon nicht funktioniert hat
— manchmal endlos.
Genau Memory erlaubt es dem Agenten, vorwärts zu gehen statt im Kreis.
Was Agenten-Memory ist und woraus es besteht

Agenten-Memory ist kein einzelner Ort, an dem alle Informationen liegen.
Es ist ein Satz von Mechanismen, die ihm erlauben:
- Kontext der aktuellen Aufgabe zu speichern
- und Erfahrung aus früheren Aufgaben zu nutzen
Ohne diese Mechanismen weiß der Agent nicht:
was schon erledigt wurde
was funktioniert hat
und was als Nächstes zu tun ist
Kurzzeit- vs Langzeit-Memory
Nicht jedes Agenten-Memory ist gleich.
Es gibt Memory während einer Aufgabe.
Und es gibt Memory zwischen Aufgaben.
Kurzzeit-Memory existiert nur während der Aufgabe.
Das ist der Kontext der aktuellen Unterhaltung:
- deine Anweisungen
- Antworten des Agenten
- Ergebnisse vorheriger Schritte
Wenn die Aufgabe abgeschlossen ist, verschwindet dieser Kontext.
Beim nächsten Mal startet der Agent "auf einem leeren Blatt".
Langzeit-Memory bleibt zwischen Aufgaben erhalten.
Damit kann der Agent:
- Einstellungen merken
- frühere Erfahrung berücksichtigen
- Daten aus vergangenen Aufgaben verwenden
Ohne sie ist jede neue Aufgabe wie die erste.
Ein einfaches Beispiel:
Du sagst zum Agenten: "Erstelle den Bericht wie beim letzten Mal."
Mit nur Kurzzeit-Memory weiß er nicht, was "beim letzten Mal" war.
Mit Langzeit-Memory kennt er Format, Quellen und Struktur und kann es wiederholen.
| Kurzzeit | Langzeit | |
|---|---|---|
| Arbeitet während der Aufgabe | ✅ | ❌ |
| Bleibt zwischen Aufgaben erhalten | ❌ | ✅ |
| Hat Grenzen | ✅ | ❌ |
| Braucht Speicher | ❌ | ✅ |
Was der Agent innerhalb einer Aufgabe merkt
Wenn der Agent an einer Aufgabe arbeitet, "sieht" er nur die aktuelle Unterhaltung.
Alles, was du schreibst.
Alles, was der Agent antwortet.
Alle Ergebnisse, die er von Tools bekommt.
Das ist sein Kurzzeit-Memory: Kontext.
Er nutzt ihn, um:
- Zu verstehen, was gerade passiert
- Zu entscheiden, welchen Schritt er als Nächstes macht
- Und nicht zu wiederholen, was schon getan wurde
Aber dieser Kontext ist nicht unbegrenzt.
Wenn die Unterhaltung zu lang wird, fällt ein Teil alter Information einfach heraus.
Der Agent sieht sie nicht mehr.
Und er kann:
- Die ursprüngliche Anforderung vergessen
- Ein wichtiges Detail verlieren
- Oder eine Aktion erneut ausführen, die schon lief
Was der Agent zwischen Aufgaben merken kann
Wenn eine Aufgabe endet, verschwindet der Gesprächskontext.
Aber das bedeutet nicht, dass der Agent alles für immer vergessen muss.
Er kann einen Teil der Information im externen Memory speichern.
Das kann sein:
- Eine Datenbank
- Eine Datei
- Oder ein anderer Speicher
Dort schreibt der Agent:
- Einstellungen
- Frühere Entscheidungen
- Oder wichtige Fakten
Und bei der nächsten Aufgabe kann er diese Daten wieder lesen.
So merkt er sich:
- Wie du arbeitest
- Welche Formate du nutzt
- Oder was er zuvor gemacht hat
Selbst wenn die vorige Unterhaltung längst beendet ist.
Memory-Limit: Kontextfenster
Das Kurzzeit-Memory des Agenten hat Grenzen.
Er kann nicht die ganze Unterhaltung vollständig merken.
Es gibt ein maximales Kontextvolumen, das das Modell gleichzeitig "sehen" kann.
Das nennt man Kontextfenster.
Wenn eine Unterhaltung zu lang wird, passt ein Teil alter Information einfach nicht mehr hinein.
Sie fällt aus dem Kontext.
Der Agent berücksichtigt sie nicht mehr.
Dadurch kann er:
- Die ursprüngliche Anforderung vergessen
- Ein wichtiges Detail verlieren
- Oder eine Aktion wiederholen, die er schon vorher gemacht hat
Im Code sieht das so aus
Unten steht dasselbe Prinzip in einfachem Format:
es gibt Kurzzeit-Memory (Aufgabenkontext) und Langzeit-Memory (externer Speicher zwischen Aufgaben).
1) Kurzzeit-Memory: was der Agent jetzt "sieht"
Das sind aktuelle Nachrichten und Ergebnisse der letzten Schritte:
short_memory = [
{"role": "user", "content": "Erstelle einen wöchentlichen Verkaufsbericht"},
{"role": "assistant", "content": "Okay, ich beginne mit der Datensammlung"},
{"role": "tool", "content": "sales_total=12400"},
]
2) Kontextlimit: Altes kann herausfallen
Wenn Kontext begrenzt ist, behält das System nur die letzten Elemente:
MAX_ITEMS = 3
short_memory = short_memory[-MAX_ITEMS:]
Dadurch sieht der Agent frühe Anweisungen möglicherweise nicht.
3) Langzeit-Memory: was wir zwischen Aufgaben speichern
Separat halten wir einen Speicher mit nützlichen Fakten:
long_memory_store = {
"user:anna": {
"report_format": "short-bullets",
"currency": "USD",
}
}
4) In der neuen Aufgabe lesen wir diese Daten zurück
Vor der Antwort lädt der Agent gespeicherte Präferenzen:
user_prefs = long_memory_store.get("user:anna", {})
task_context = {
"request": "Erstelle den Bericht wie beim letzten Mal",
"prefs": user_prefs,
}
5) Der Agent erstellt die Antwort bereits mit Memory
def build_report(context: dict):
fmt = context["prefs"].get("report_format", "default")
currency = context["prefs"].get("currency", "USD")
return f"Report format={fmt}, currency={currency}"
result = build_report(task_context)
# "Report format=short-bullets, currency=USD"
Ohne Langzeit-Memory wäre das format=default.
Vollständiges Implementierungsbeispiel mit angebundener LLM
Analogie aus dem Alltag
Stell dir vor, du telefonierst, hörst aber nur die letzten 30 Sekunden des Gesprächs.
Du weißt, was die andere Person gerade gesagt hat.
Du erinnerst die letzte Antwort.
Und du kannst das Gespräch fortsetzen.
Aber wenn sie sagt:
"Wie ich am Anfang schon erklärt habe..."
— dann hast du diesen Anfang nicht gehört.
Er ist einfach herausgefallen.
Und du kannst:
- Dasselbe noch einmal nachfragen
- Die Aufgabe falsch verstehen
- Oder am Thema vorbeireden
Wenn du Notizen aus früheren Gesprächen hast, kannst du sie lesen und den Kontext verstehen.
Genau so nutzt ein Agent Kurzzeit- und Langzeit-Memory.
Kurz
Ein Agent hat zwei Arten von Memory:
- Kurzzeit: Kontext der aktuellen Aufgabe
- Langzeit: gespeicherte Daten zwischen Aufgaben
Kurzzeit-Memory ist begrenzt:
ein Teil der Informationen kann aus dem Kontext verschwinden.
Langzeit-Memory erlaubt es:
Erfahrung zu speichern und später zu verwenden.
FAQ
Q: Merkt sich ein Agent frühere Aufgaben?
A: Nur wenn diese Information im Langzeit-Memory außerhalb der aktuellen Unterhaltung gespeichert ist.
Q: Warum kann ein Agent die ursprüngliche Anweisung vergessen?
A: Wegen Grenzen des Kontextfensters: ein Teil älterer Information kann aus dem Kurzzeit-Memory herausfallen.
Q: Wozu braucht ein Agent Langzeit-Memory?
A: Um wichtige Daten zwischen Aufgaben zu speichern und künftig zu verwenden.
Was als Nächstes
Jetzt weißt du, was sich der Agent merkt und wie ihm das hilft, voranzukommen.
Aber Memory ist nur ein Teil des Bildes.
Denn der Agent merkt sich nicht nur Aktionen.
Er führt sie aus.
Und nicht alle Aktionen sind gleich sicher.
Eine Sache ist, Daten zu lesen.
Eine andere ist, sie zu ändern.
Oder zu löschen.
Oder Geld für API-Aufrufe auszugeben.
Darum muss ein Agent nicht nur wissen, was zu tun ist.
Er muss wissen, was er tun darf.