O seu papel como Software Engineer Senior (E3)
Desenvolver soluções de ponta a ponta em Python, desde a definição de arquitetura até testes e rollout em produção;
Projetar e evoluir sistemas com foco em automação e Inteligência Artificial, direcionados à eficiência operacional do grupo SBF;
Construir pipelines robustos de dados, arquiteturas de ML/AI e integrações com sistemas de automação;
Garantir funcionalidade, manutenibilidade, escalabilidade e qualidade, aplicando boas práticas de engenharia e testes;
Atuar no desenho de soluções com arquitetura evolutiva, avaliando constantemente novas tecnologias em IA, frameworks de ML/DL e práticas de automação;
Colaborar com a evolução técnica do time, disseminando práticas de MLOps, testes de modelos, monitoramento e reprodutibilidade de experimentos;
Trabalhar em um ambiente colaborativo, com pair programming, feedbacks contínuos e cultura de alta performance.
O que você precisa para essa posição no jogo
Proficiência avançada em Python (orientação a objetos, concorrência, boas práticas de código);
Experiência em frameworks de Machine Learning/Deep Learning (TensorFlow, PyTorch, Scikit-learn);
Conhecimento em MLOps: pipelines de treinamento, versionamento de modelos (MLflow, DVC) e deploy em produção;
Experiência com arquiteturas distribuídas e microsserviços;
Conhecimento em Docker & Kubernetes para implantação escalável de modelos e serviços;
Conhecimento em observabilidade e monitoramento aplicados a sistemas de IA e automação;
Sólida prática em testes unitários, integração e validação de modelos;
Capacidade de trabalhar em ambiente multifuncional e colaborativo, com autonomia;
Embasamento teórico em ciência de dados, aprendizado de máquina e boas práticas de engenharia de software (DDD, design de código, paradigmas);
Familiaridade com metodologias ágeis (Scrum, Kanban).
Seria legal se você conhecesse
Google Cloud AI/ML Services (Vertex AI, AI Platform);
Continuous Integration & Delivery aplicados a ML (CI/CD para pipelines de dados e modelos);
Ferramentas de processamento de dados em streaming (Kafka, Pub/Sub);
Boas práticas de DataOps e integração com times de dados e automação.