O modelo de atuação remoto oferece flexibilidade para projetar e implementar pipelines de validação de dados e avaliação de modelos em ambiente cloud.
Integrar dados e métricas de avaliação em um fluxo automatizado e auditável é fundamental para garantir boas práticas de versionamento, logging, monitoramento e testes automatizados.
A modularização do pipeline facilita a reuso, testes e manutenção. O trabalho em colaboração com times de Data Science, Engenharia de Dados e Produto garante que as melhorias contínuas na arquitetura de dados e nos processos de validação sejam alcançadas.
Proficiência em Python e frameworks como PySpark, Pandas, Scikit-learn ou similares é essencial para o sucesso nessa oportunidade.
Experiência com ferramentas e serviços AWS, como S3, Lambda, Step Functions, Glue, Athena, SageMaker ou ECS, é necessária para integrar dados e métricas de avaliação em um fluxo automatizado e auditável.
Familiaridade com métricas de avaliação de modelos (ex: MAE, RMSE, Precision, Recall) e capacidade de escrever código limpo, modular e testável são requisitos fundamentais.
Além disso, experiência com orquestração de workflows e conhecimento em MLOps e CI/CD para pipelines de dados e modelos são valiosos para garantir a eficiência do projeto.
Também é desejável ter experiência com infraestrutura como código (Terraform, CloudFormation) e participação em projetos de ML em produção com foco em confiabilidade e rastreabilidade.
Venham contribuir com suas habilidades e experiências para criar uma solução inovadora e eficaz.