DE
Governance & Guardrails
Budgets, Approvals, Permissions, Audit Logs — Controls, damit Agents nicht eskalieren.
- Allowlist vs. Blocklist (Warum Default-Deny gewinnt) + Code★★★Blocklists verrotten. Allowlists skalieren. Ein Tool-Policy-Modell, das nicht aus Versehen das nächste gefährliche Tool erlaubt.
- Budget Controls für AI Agents (Steps, Time, $) + Code★★★Wenn dein Agent unbegrenzt Zeit und Geld ausgeben kann, wird er’s tun. Eine Budget-Policy, die Runs sauber stoppt und Stop-Reasons liefert.
- Cost Limits für AI Agents (Stop Spending) + Code★★★Token-Limits reichen nicht. So setzt du harte Cost Caps, die Tool-Kosten + Model-Kosten zusammen tracken und einen sauberen Stop-Reason liefern.
- Human-in-the-Loop Approvals (Stop Writes) + Code★★★Approvals sind langweilig – und billiger als 200 falsche Writes rückgängig zu machen. So baust du Freigaben für risky Tool Calls.
- Kill Switch Design für AI Agents (Writes sofort stoppen) + Code★★★Wenn dein Agent Schaden macht, brauchst du einen Kill Switch, der wirklich stoppt: global + per-tenant toggles, tool-disable, und saubere Stop-Semantik.
- Step Limits für AI Agents (Stop Loops) + Code★★★Step Limits sind die billigste Loop-Versicherung. So caps’t du Agent-Steps, surfacest Stop-Reasons und verhinderst 700 Tool Calls.
- Tool Permissions für AI Agents (Least Privilege) + Code★★★Wenn du einem probabilistischen System Credentials gibst, brauchst du Least Privilege. So designst du Tool Permissions, die du auditieren und enforce kannst.