Descripción de la oferta de empleo
Funciones:
Garantizar la puesta en producción, operación y mantenimiento continuo de modelos de Machine Learning mediante pipelines confiables, seguros y versionados.
Diseñar, desarrollar y optimizar pipelines de datos y ML (entrenamiento, inferencia, monitoreo) utilizando buenas prácticas de ingeniería y automatización.
Implementar monitoreo, observabilidad y alertas para modelos e infraestructura (drift, performance, latencia, calidad de datos).
Gestionar versionamiento de datos, features, modelos y experimentos mediante herramientas MLOps (ej: MLflow, Vertex AI, Feature Store).
Participar en la integración con equipos de Data Engineering, DevOps y Producto para asegurar que modelos y pipelines se integren con Data Lake, APIs, servicios y frontales del negocio.
Documentar, estandarizar y promover buenas prácticas de MLOps (CI/CD, IaC, testing automatizado, gobernanza).
Realizar mejoras iterativas sobre modelos en producción basadas en métricas, feedback operativo y cambios del negocio.
Requisitos:
Profesional egresado de Ingeniería de Sistemas, Ingeniería Informática, Ingeniería Estadística, Ciencia de Datos, Ingeniería de Software o carreras afines.
Estudios Complementarios: Especialización en MLOps, DevOps o Ingeniería de Datos, Modelos de Machine Learning y prácticas de IA aplicada, CI/CD, Infraestructura como Código (IaC), Arquitectura de nubes (GCP deseable), Observabilidad, monitoreo y gobernanza de modelos, Metodologías ágiles orientadas a productos de datos
Idiomas: inglés intermedio
Manejo de software: Python, SQL, Power BI, BigQuery, MLflow, Feature Store, Docker, Kubernetes, Terraform, Git, pipelines CI/CD, herramientas para drift, logging y performance ML/infraestructura