O seu papel como Software Engineer Senior (E3)
* Desenvolver soluções de ponta a ponta em Python, desde a definição de arquitetura até testes e rollout em produção;
* Projetar e evoluir sistemas com foco em automação e Inteligência Artificial, direcionados à eficiência operacional do grupo SBF;
* Construir pipelines robustos de dados, arquiteturas de ML/AI e integrações com sistemas de automação;
* Garantir funcionalidade, manutenibilidade, escalabilidade e qualidade, aplicando boas práticas de engenharia e testes;
* Atuar no desenho de soluções com arquitetura evolutiva, avaliando constantemente novas tecnologias em IA, frameworks de ML/DL e práticas de automação;
* Colaborar com a evolução técnica do time, disseminando práticas de MLOps, testes de modelos, monitoramento e reprodutibilidade de experimentos;
* Trabalhar em um ambiente colaborativo, com pair programming, feedbacks contínuos e cultura de alta performance.
O que você precisa para essa posição no jogo
* Proficiência avançada em Python (orientação a objetos, concorrência, boas práticas de código);
* Experiência em frameworks de Machine Learning/Deep Learning (TensorFlow, PyTorch, Scikit-learn);
* Conhecimento em MLOps: pipelines de treinamento, versionamento de modelos (MLflow, DVC) e deploy em produção;
* Experiência com arquiteturas distribuídas e microsserviços;
* Conhecimento em Docker & Kubernetes para implantação escalável de modelos e serviços;
* Conhecimento em observabilidade e monitoramento aplicados a sistemas de IA e automação;
* Sólida prática em testes unitários, integração e validação de modelos;
* Capacidade de trabalhar em ambiente multifuncional e colaborativo, com autonomia;
* Embasamento teórico em ciência de dados, aprendizado de máquina e boas práticas de engenharia de software (DDD, design de código, paradigmas);
* Familiaridade com metodologias ágeis (Scrum, Kanban).
Seria legal se você conhecesse
* Google Cloud AI/ML Services (Vertex AI, AI Platform);
* Continuous Integration & Delivery aplicados a ML (CI/CD para pipelines de dados e modelos);
* Ferramentas de processamento de dados em streaming (Kafka, Pub/Sub);
* Boas práticas de DataOps e integração com times de dados e automação.