Resumen del rol
Construir la infraestructura de Machine Learning y MLOps que permite a Data Scientists desarrollar, desplegar y mantener modelos de Machine Learning en producción siguiendo buenas prácticas industriales. Responsable de crear herramientas, SDKs y pipelines automatizados que garantizan reproducibilidad, observabilidad y gobernanza de modelos, con enfoque en self-service y autonomía de equipos de ML. Incluye productización y mejora constante de modelos complejos (bayesianos, ensembles) con estándares de calidad enterprise.
Responsabilidades
* Construir CLI tools para deployment automatizado (ml-deploy, ml-rollback)
* Implementar workflows automatizados MLflow (promotion dev → staging → prod)
* Crear templates repositories con best practices (model template, API template)
* Establecer buenas prácticas para productización de modelos bayesianos (sampling, inference, monitoring)
* Documentar APIs y SDKs (Sphinx/MkDocs, tutoriales, examples)
* Training sessions Data Scientists (certificación uso plataforma)
* Desarrollar herramientas self-service para Data Scientists (80%+ autonomy target)
* Implementar automated testing suites (model validation, performance checks)
* Optimizar performance modelos bayesianos en producción (MCMC efficiency, inference speed)
* Optimizar MLflow performance (caching, query optimization)
* Construir monitoring dashboards para model health (accuracy, latency, convergence diagnostics)
* Governance automation (approval gates, compliance checks)
* Incident response & troubleshooting support
* Mantener y evolucionar SDKs/tooling basado en feedback DS
* Mejorar arquitectura serving modelos complejos (bayesianos, ensembles)
* Documentación continua (runbooks, troubleshooting guides)
* Office hours semanales Data Scientists (support + knowledge sharing)
RequisitosExperiencia
* 5+ años de experiencia en Ciencia de Datos, Machine Learning o MLOps
* 2+ años trabajando con MLOps tools en producción (registry, tracking, model serving, Monitoring, Versioning)
* Experiencia construyendo SDKs/libraries Python para consumo interno
* Experiencia con CI/CD pipelines (GitHub Actions, GitLab CI, Jenkins)
* Capacidad de entender modelos bayesianos, ponerlos en producción con buenas prácticas y mejorarlos
Técnico
* Python avanzado (packaging, testing, documentation)
* MLflow (registry, tracking server, model serving, artifacts)
* Modelos bayesianos (PyMC, Stan, o similar) - productización y optimization
* Docker & Kubernetes básico
* Git & GitHub/GitLab workflows
* REST APIs design & development
* Cloud platforms (GCP preferible, AWS/Azure acceptable)
Soft Skills
* Mentalidad de\ "internal tooling\" (diseñar para otros desarrolladores)
* Documentación clara y completa (technical writing)
* Comunicación efectiva con Data Scientists (entender sus pain points)
* Ownership y autonomía
Por qué te encantará trabajar en Cashea
En Cashea tenemos una cultura de trabajo basada en la confianza y el propósito. Si necesitas una pista de por qué somos una buena opción, estos son nuestros valores fundamentales:
* No trabajamos en piloto automático. Todo lo que hacemos es intencional. Nos encanta elaborar ideas plenamente conscientes del impacto que pueden tener en nuestros usuarios.
* Tu creatividad y curiosidad son el activo más importante.
* Tu voz importa. Escuchamos y damos espacio a las ideas y al feedback. Todos pertenecen y lo que es importante para ti, también lo es para nosotros.
* Valoramos la transparencia. La claridad nos mantiene conectados y con los pies en la tierra.
* Por último, pero no menos importante, nos enfocamos en el impacto real.
Si quieres trabajar con nosotros, llena la aplicación. ¡Nos encantaría conocerte!
#J-18808-Ljbffr