ES
Gobernanza y Guardrails
Presupuestos, aprobaciones, permisos y auditoría: controles para que el agente no se descontrole.
- Allowlist vs Blocklist (por qué gana default-deny) + Código★★★Las blocklists se pudren. Las allowlists escalan. Un modelo de policy de herramientas que no autoriza por accidente el próximo tool peligroso.
- Budget Controls para agentes IA (pasos, tiempo, $) + Código★★★Si tu agente puede gastar tiempo y dinero sin límite, lo hará. Una policy de presupuesto que detiene runs de forma segura y expone stop reasons.
- Cost Limits para agentes IA (detener el gasto) + Código★★★Limitar tokens no alcanza. Cómo poner un cap duro de costo total (LLM + tools), con stop reasons claros para evitar sorpresas en producción.
- Human-in-the-loop approvals (frenar writes) + Código★★★Las approvals son aburridas — y más baratas que deshacer 200 writes. Un gate de aprobación para tool calls de riesgo.
- Kill switch design para agentes IA (parar writes ya) + Código★★★Cuando tu agente hace daño, necesitas un kill switch real: global + por tenant, disable a nivel tool, y stop semantics que funcionen sin redeploy.
- Step limits para agentes IA (parar loops) + Código★★★Los step limits son el seguro más barato contra loops. Cappea steps, expone stop reasons, y evita el run de 700 tool calls.
- Tool permissions para agentes IA (least privilege) + Código★★★Si le das credenciales a un sistema probabilístico, necesitas least privilege. Permisos de tools enforceables, auditables y con scopes.