Patron Data-Analysis Agent: analitica de datos confiable

Como un agente carga, limpia, analiza y valida datos para producir metricas y conclusiones reproducibles para decisiones.
En esta página
  1. Esencia Del Patron
  2. Problema
  3. Solucion
  4. Como Funciona
  5. En Codigo Se Ve Asi
  6. Como Se Ve En Ejecucion
  7. Cuando Encaja - Y Cuando No
  8. Encaja
  9. No Encaja
  10. Diferencia Frente A Code-Execution
  11. Cuando Usar Data-Analysis (vs Otros Patrones)
  12. Como Combinar Con Otros Patrones
  13. Resumen
  14. Ventajas Y Desventajas
  15. FAQ
  16. Que Sigue

Esencia Del Patron

Data-Analysis Agent es un patron donde el agente trabaja con datos tabulares o series temporales mediante un pipeline analitico controlado: policy check, ingest, profile, transform, analyze, validate, report.

Cuando usarlo: cuando necesitas calcular y verificar metricas con datos reales, no describirlas con palabras generales.


A diferencia de "solo responder", el agente ejecuta analitica secuencial:

  • Ingest + profile: lee datos y verifica calidad
  • Transform: limpia anomalias y faltantes segun reglas
  • Analyze: calcula metricas, KPI y agregados
  • Validate: verifica consistencia de resultados
  • Report: arma conclusiones y artefactos para auditoria

Patron Data-Analysis Agent: analitica de datos confiable

Problema

Imagina que preguntas:

"Cuanto ganamos la semana pasada?"

Recibes un numero, pero no entiendes que se hizo con los datos antes del calculo.

Quedan preguntas criticas:

  • si se incluyeron devoluciones
  • si se eliminaron duplicados
  • como se trataron los faltantes
  • si partes de datos desaparecieron durante la "limpieza"

Analitica sin proceso fijo entrega numeros dificiles de explicar, verificar y reproducir.

Por eso distintas personas pueden calcular el mismo dataset de manera diferente.

Ese es el problema central: sin pipeline transparente, el resultado del analisis se vuelve impredecible y no auditable.

Solucion

Data-Analysis Agent opera mediante un pipeline analitico fijo.

Analogia: es como un analisis de laboratorio. Primero se toma una muestra y se revisa su calidad, luego se calculan indicadores. Sin esa secuencia no se puede confiar en los numeros.

Principio clave: el valor no esta solo en el numero, sino en que cada paso del analisis puede explicarse y reproducirse.

El agente no puede "calcular directo" - debe pasar por pasos:

  1. Policy check: verificar acceso a la fuente
  2. Ingest: cargar datos
  3. Profile: revisar estructura y calidad
  4. Transform: limpiar por reglas
  5. Analyze: calcular metricas
  6. Validate: verificar resultado

Y debe registrar:

  • fuente de datos
  • reglas de limpieza
  • verificaciones ejecutadas
  • limitaciones de datos

Esto permite mostrar, por ejemplo:

  • que filas fueron eliminadas
  • como se trataron faltantes
  • que anomalias se detectaron
  • que invariantes pasaron

Funciona bien si:

  • el paso de ingest no puede saltarse
  • las reglas de limpieza estan fijadas
  • el paso de validacion es obligatorio
  • la capa de ejecucion no permite saltar pasos del pipeline

Analitica confiable es un pipeline que el agente no puede saltarse tecnicamente.

Como Funciona

Diagram

Este patron suele usar Code-Execution Agent para ejecutar calculos en sandbox.

Diferencia clave: aqui el foco no es ejecutar codigo como tal, sino el ciclo analitico completo con controles de calidad.

Flujo completo: Policy Check → Ingest → Profile → Transform → Analyze → Validate → Report

Policy Check
Antes de procesar, el sistema verifica fuente, rol de acceso y sensibilidad de datos (PII).

Ingest
Los datos se cargan registrando fuente, periodo y version.

Profile
El agente revisa schema, faltantes, duplicados y outliers.

Transform
Limpieza y normalizacion: tipos de campo, filtros, tratamiento de missing values.

Analyze
Calculo de KPI, agregados y comparaciones.

Validate
El sistema verifica invariantes: rangos de metricas, ausencia de valores negativos, consistencia de agregados.

Report
Se forma el resultado: tablas, graficos, conclusiones clave y evidence.

En Codigo Se Ve Asi

PYTHON
decision = policy_engine.evaluate_source(source, user_role=user_role)
if decision.type != "allow":
    return stop_with_reason("source_policy_denied")

df = load_data(source)
profile = profile_data(df)

if profile.schema_mismatch:
    return stop_with_reason("schema_mismatch")

df_clean = clean_data(df, rules=cleaning_rules)
metrics = compute_metrics(df_clean)

checks = validate_metrics(metrics, rules=[
    "no_negative_revenue",
    "conversion_between_0_1",
])

if not checks.ok:
    return escalate_or_fallback(checks.errors)

report = build_report(metrics, checks, profile)
return report

El resultado analitico debe incluir no solo numeros, sino tambien evidence: que checks pasaron y que limitaciones tenia el dato.

Como Se Ve En Ejecucion

TEXT
Goal: preparar resumen semanal de ventas

Ingest:
- sales.csv de los ultimos 7 dias

Profile:
- 2% faltantes en channel
- 1 outlier en revenue

Transform:
- completar channel = "unknown"
- eliminar duplicado id=8472

Analyze:
- revenue: 142,300
- conversion: 3.84%
- top channel: paid_search

Validate:
- todas las invariantes pasaron

Report:
- tabla KPI + conclusiones cortas

Ejemplo completo de agente Data-Analysis

PYPython
TSTypeScript · pronto

Cuando Encaja - Y Cuando No

Encaja

SituacionPor Que Data-Analysis Encaja
Analitica regular sobre datasetsEl patron funciona bien para procesamiento sistematico y repetible de datos.
Metricas reproduciblesEl pipeline asegura estabilidad de resultados entre ejecuciones.
Checks de calidad obligatorios antes de conclusionesValidaciones e invariantes reducen riesgo de interpretaciones incorrectas.
Resultado apto para auditoriaResultado y pasos de procesamiento son transparentes y verificables.

No Encaja

SituacionPor Que Data-Analysis No Encaja
Volumen pequeno de datosAnalisis manual sera mas simple y mas barato.
Tarea puramente textualSin calculos ni checks, el pipeline analitico es innecesario.
No hay infraestructura de ejecucionSin infraestructura no se puede garantizar validacion ni reproducibilidad.

Porque Data-Analysis Agent necesita ingenieria adicional: pipeline, checks, monitoreo y versionado de fuentes.

Diferencia Frente A Code-Execution

Code-ExecutionData-Analysis
RolEjecutar codigo de forma seguraCiclo analitico completo sobre datos
Focosandbox en entorno de ejecucion y control del runCalidad de metricas y conclusiones analiticas
OutputResultado de ejecucion de codigoKPI, checks, conclusiones, reporte
Riesgo principalEjecucion insegura/inestableInterpretacion incorrecta o datos sucios

Code-Execution es mecanismo de ejecucion. Data-Analysis es proceso para obtener resultado analitico confiable.

Cuando Usar Data-Analysis (vs Otros Patrones)

Usa Data-Analysis cuando necesitas explorar datos y devolver conclusiones basadas en analisis.

Prueba rapida:

  • si necesitas "explicar que esta pasando en los datos y dar conclusiones" -> Data-Analysis
  • si necesitas "solo ejecutar codigo y obtener output tecnico" -> Code-Execution Agent
Comparacion con otros patrones y ejemplos

Chuleta rapida:

Si la tarea se ve asi...Usa
Despues de cada paso hay que decidir que hacer despuesReAct Agent
Primero hay que dividir una meta grande en tareas pequenas ejecutablesTask Decomposition Agent
Necesitas ejecutar codigo, validar resultados e iterar de forma seguraCode Execution Agent
Necesitas explorar datos y devolver conclusiones basadas en analisisData Analysis Agent
Necesitas investigacion en varias fuentes con evidencia estructuradaResearch Agent

Ejemplos:

ReAct: "Encuentra causa de caida de API: revisa logs -> mira errores -> corre siguiente check segun resultado".

Task Decomposition: "Preparar lanzamiento de nuevo plan: divide en subtareas para contenido, tecnica, QA y soporte".

Code Execution: "Calcula retention de 12 meses en Python y valida formulas con datos reales".

Data Analysis: "Analiza CSV de ventas: encuentra tendencias, outliers y da conclusiones cortas".

Research: "Reune datos de 5 competidores desde varias fuentes y haz resumen comparativo".

Como Combinar Con Otros Patrones

  • Data-Analysis + Code-Execution: cuando hay que calcular o transformar datos, el agente ejecuta codigo en sandbox con limites.
  • Data-Analysis + Guarded-Policy: si hay datos sensibles, las policies limitan que tablas y campos se pueden leer.
  • Data-Analysis + Fallback-Recovery: si falla fuente o paso, el pipeline cambia a ruta segura de recuperacion.

Resumen

En resumen

Data-Analysis Agent:

  • Trabaja con datos mediante pipeline secuencial
  • Agrega checks de calidad en cada etapa
  • Devuelve metricas y conclusiones reproducibles
  • Reduce riesgo de errores en decisiones de negocio

Ventajas Y Desventajas

Ventajas

procesa rapido grandes volumenes de datos

ayuda a encontrar tendencias y outliers

el resultado se puede verificar y repetir

util para construir reportes y graficos

Desventajas

sin datos de calidad, las conclusiones seran debiles

calculos complejos pueden ser lentos

hacen falta checks para evitar conclusiones falsas

FAQ

Q: Puede el agente analizar sin perfilar datos?
A: Puede, pero es riesgoso. Sin paso profile, es facil omitir problemas de schema y romper metricas.

Q: Para que validar metricas despues del calculo?
A: Para detectar anomalias antes de enviar resultado: revenue negativo, conversion fuera de [0,1] y otras invariantes.

Q: Data-Analysis Agent reemplaza un sistema BI?
A: No. Complementa BI: automatiza analisis puntual, limpieza y explicacion, pero no reemplaza data governance.

Que Sigue

Data-Analysis Agent trabaja con datos estructurados y metricas reproducibles.

Como construir un agente para investigacion open-world: busqueda de fuentes, lectura, extraccion de hechos y citas?

⏱️ 11 min de lecturaActualizado Mar, 2026Dificultad: ★★★
Continuación práctica

Ejemplos de implementación del patrón

Continúa con la implementación usando proyectos de ejemplo.

Integrado: control en producciónOnceOnly
Guardrails para agentes con tool-calling
Lleva este patrón a producción con gobernanza:
  • Presupuestos (pasos / topes de gasto)
  • Permisos de herramientas (allowlist / blocklist)
  • Kill switch y parada por incidente
  • Idempotencia y dedupe
  • Audit logs y trazabilidad
Mención integrada: OnceOnly es una capa de control para sistemas de agentes en producción.
Autor

Esta documentación está curada y mantenida por ingenieros que despliegan agentes de IA en producción.

El contenido es asistido por IA, con responsabilidad editorial humana sobre la exactitud, la claridad y la relevancia en producción.

Los patrones y las recomendaciones se basan en post-mortems, modos de fallo e incidentes operativos en sistemas desplegados, incluido durante el desarrollo y la operación de infraestructura de gobernanza para agentes en OnceOnly.