skip to content

Predicción de Margen con SageMaker Autopilot V2

6 min read

Cómo AWS SageMaker Autopilot V2 democratiza el Machine Learning para empresas medianas: de datos históricos a predicción de margen en semanas, sin un equipo de Data Science.

De datos históricos a predicción de margen en semanas — sin un equipo de Data Science

Cómo AWS SageMaker Autopilot V2 democratiza el Machine Learning para empresas medianas

Hace unas semanas, nuestro equipo financiero hacía la misma pregunta de siempre: “¿Cuál fue el margen del mes pasado?”

La respuesta siempre llegaba tarde. Cuando los números estaban listos, las decisiones de pricing ya se habían tomado, los pedidos de materia prima ya se habían colocado, y las oportunidades de corregir rumbo ya habían pasado.

Hoy, la pregunta cambió: “¿Cuál será el margen en los próximos 3 meses?”

Y lo logramos sin contratar un equipo de Data Science, sin meses de desarrollo, y con costos operativos que se miden en centavos por predicción.

El problema real: inteligencia financiera reactiva

En muchas empresas medianas de manufactura y distribución, el análisis de margen bruto sigue siendo un ejercicio retrospectivo. Los equipos financieros consolidan datos de ERP, calculan márgenes por país y línea de producto, y generan reportes que describen lo que ya pasó.

El problema no es la falta de datos — es la falta de tiempo para actuar sobre ellos.

Cuando descubres que el margen de una línea de producto cayó 6 puntos porcentuales, ya llevas un mes absorbiendo ese impacto. Multiplicado por múltiples países y marcas, el costo de la visibilidad tardía se acumula silenciosamente en el P&L.

La solución: Time Series Forecasting con SageMaker Autopilot V2

AWS lanzó SageMaker Autopilot V2 con soporte nativo para Time Series Forecasting — y esto cambia las reglas del juego para empresas que no tienen (ni necesitan) un equipo de ML dedicado.

¿Qué hace Autopilot V2 diferente?

En ML tradicional, construir un modelo de forecasting requiere:

  • Seleccionar algoritmos (ARIMA, Prophet, DeepAR, ETS…)
  • Hacer feature engineering manual
  • Tunear hiperparámetros
  • Validar con backtesting
  • Empaquetar el modelo para producción
  • Monitorear drift y reentrenar

Autopilot V2 hace todo esto automáticamente. Le entregas un CSV con series de tiempo, le dices qué columna predecir, y el servicio:

  1. Prueba múltiples algoritmos en paralelo
  2. Selecciona el mejor candidato por métricas de accuracy
  3. Genera un modelo listo para deployment
  4. Soporta cuantiles (p10, p50, p90) para intervalos de confianza

El único conocimiento requerido: entender tus datos y tu problema de negocio.

Arquitectura: serverless de punta a punta

Diseñamos una arquitectura 100% serverless que cualquier equipo de desarrollo puede mantener:

┌─────────────────────────────────────────────────────┐
│               AWS Step Functions                     │
│          (Orquestación del pipeline)                 │
│                                                      │
│  ┌──────────┐    ┌──────────────┐    ┌───────────┐  │
│  │ Lambda 1  │───▶│  SageMaker   │───▶│ Lambda 2  │  │
│  │ Extract   │    │  Autopilot   │    │  Deploy   │  │
│  │ Data      │    │  V2          │    │  Endpoint │  │
│  └──────────┘    └──────────────┘    └───────────┘  │
│       │                                     │        │
│       ▼                                     ▼        │
│   ┌──────┐                            ┌──────────┐  │
│   │  S3  │                            │ DynamoDB  │  │
│   │ CSV  │                            │ Metadata  │  │
│   └──────┘                            └──────────┘  │
└─────────────────────────────────────────────────────┘
                         │
                         ▼
              ┌─────────────────────┐
              │  SageMaker Endpoint │
              │  (Serverless)       │
              │  Inference on-demand│
              └─────────────────────┘
                         │
                         ▼
              ┌─────────────────────┐
              │  Portal Web (Nuxt)  │
              │  Forecast + Bandas  │
              │  de Confianza       │
              └─────────────────────┘

Componentes clave

1. Extracción (Lambda + SQL Server)

Una función Lambda consulta la base de datos Gold (nuestro data warehouse), transforma los datos en formato de serie de tiempo (un registro por país/marca/mes), y sube el CSV a S3. Tiempo de ejecución: ~15 segundos.

2. Entrenamiento (SageMaker Autopilot V2)

Step Functions invoca CreateAutoMLJobV2 con configuración de Time Series. Autopilot entrena, evalúa y selecciona el mejor modelo. Tiempo: 1-3 horas (una sola vez, o cuando se quiera reentrenar).

3. Deployment (Lambda + SageMaker Serverless Endpoint)

Una segunda Lambda toma el mejor candidato de Autopilot, crea un modelo y lo despliega como Serverless Inference Endpoint. Esto es crítico: el endpoint solo consume recursos cuando recibe peticiones.

4. Inferencia (API → SageMaker → Frontend)

Cuando un usuario consulta el forecast, el backend invoca el endpoint con la serie histórica. SageMaker retorna predicciones con cuantiles p10, p50 y p90 — tres escenarios en una sola llamada.

¿Por qué Serverless Inference?

Esta decisión arquitectónica es la que hace viable el proyecto para una empresa mediana:

AspectoEndpoint Real-TimeServerless Endpoint
Costo en idle~$50-200/mes$0
Cold start0 ms1-2 min
EscalaManual/AutoAutomática
Ideal paraMiles de req/minDecenas de req/día

Nuestro caso de uso es un portal interno con decenas de consultas diarias, no miles por segundo. Un endpoint real-time estaría encendido 24/7 para servir unas pocas peticiones. Con Serverless Inference, pagamos solo por los segundos de cómputo que usamos.

Costo mensual estimado: < $5 USD en inferencia.

El costo total de la solución

Seamos transparentes con los números:

ComponenteCosto estimado/mes
Entrenamiento Autopilot (1x/mes)~$15-30
Serverless Endpoint (inferencia)~$3-5
Lambda (3 funciones)< $1
Step Functions< $1
S3 (CSVs + modelos)< $1
DynamoDB (metadata)< $1
Total~$20-40/mes

Por menos de $40 dólares al mes, una empresa tiene predicción de margen por país y marca con intervalos de confianza a 3 meses.

Comparen eso con el costo de una decisión de pricing tomada un mes tarde.

Lecciones aprendidas

1. El CSV es el contrato

Autopilot V2 necesita un formato específico: item_id, timestamp, target_value, y features opcionales. Invertir tiempo en definir bien este “contrato de datos” simplifica todo lo demás.

2. Los cuantiles > un solo número

Predecir “el margen será 24.3%” es menos útil que decir “estará entre 19.1% y 28.7% con 80% de confianza”. Los intervalos permiten al negocio planificar escenarios, no apostar a un punto.

3. El fallback es obligatorio

Si el modelo falla o no está entrenado, el sistema muestra datos históricos sin forecast. Nunca una pantalla en blanco. En enterprise, la disponibilidad supera a la precisión.

4. Step Functions > cron jobs

Orquestar con Step Functions (no con cron) da visibilidad total del pipeline: qué paso falló, cuánto tardó cada etapa, y reintentos automáticos. Invaluable para operaciones.

5. No necesitas un Data Scientist para empezar

Necesitas a alguien que entienda los datos del negocio y un arquitecto de soluciones que conozca los servicios de AWS. Autopilot cierra la brecha de ML.

¿Para quién es esto?

Esta arquitectura aplica para cualquier empresa que:

  • Tenga datos históricos estructurados (ventas, costos, inventario, demanda)
  • Necesite predicciones periódicas (no real-time de milisegundos)
  • No tenga (o no quiera dedicar) un equipo de ML
  • Valore costos predecibles y bajos
  • Opere con un equipo de desarrollo que ya conozca AWS

No es solo margen. La misma arquitectura sirve para forecasting de demanda, inventario, churn, o cualquier serie de tiempo empresarial.

El futuro de ML en empresas medianas

La narrativa de que Machine Learning requiere equipos grandes, presupuestos enormes y PhDs está quedando obsoleta. Servicios como SageMaker Autopilot V2, combinados con arquitecturas serverless, están moviendo ML de “proyecto de innovación” a herramienta operativa accesible.

La pregunta ya no es si tu empresa puede hacer ML. Es cuánto le está costando no hacerlo.

¿Tu empresa usa datos históricos para tomar decisiones? ¿O ya está prediciendo el futuro con ellos?