Detalhes da vagaRequisitosSuperior completo em Tecnologia, preferencialmente;Experiência sólida atuando como Engenheiro(a) de Machine Learning ou Engenheiro(a) de Dados Sênior em ambiente corporativo, com responsabilidade direta por pipelines de dados e modelos em produção;Domínio avançado em SQL e proficiência em Python;Experiência prática e sólida com serviços de dados em uma das principais plataformas de cloud (AWS, Azure ou GCP), incluindo data lake, orquestração e componentes serverless;Experiência com Databricks ou plataforma equivalente baseada em Spark gerenciado (uso de notebooks, jobs/pipelines, integração com repositórios Git, Delta Lake/Lakehouse);Conhecimento aprofundado em pipelines de Machine Learning e práticas de MLOps (ex: MLflow, TFX, Kubeflow ou ferramentas similares), incluindo versionamento, deploy e monitoramento de modelos;Experiência com orquestradores de pipelines de dados, como Apache Airflow ou ferramentas equivalentes da cloud;Conhecimento e experiência com ecossistemas de Big Data (ex: Spark, Hadoop) e arquiteturas modernas de dados (Data Lake / Lakehouse, camadas Bronze–Silver–Gold / Medallion);Inglês: leitura e escrita técnica;AtividadesProjetar, construir e manter pipelines de dados (ETL/ELT) e pipelines de Machine Learning robustos, escaláveis e de alta performance, utilizando ferramentas e tecnologias de Big Data e Cloud Computing (com forte uso de Spark/Databricks);Estruturar, automatizar e operar esteiras de MLOps (treino, validação, deploy e re-treino de modelos), incluindo versionamento, monitoramento, logs e alertas em produção;Otimizar a performance de queries, jobs e modelos, bem como a arquitetura de data lakes/lakehouses, implementando padrões de qualidade, segurança e governança de dados e modelos;Atuar como referência técnica para projetos de dados e IA, orientando membros mais juniores da equipe e influenciando as decisões de tecnologia e arquitetura;Trabalhar em estreita colaboração com equipes de Data Science, Business Intelligence, Engenharia de Software e áreas de negócio para entender necessidades e entregar soluções baseadas em dados e modelos que impulsionem o negócio;Criar e manter sistemas de monitoramento para garantir a integridade, disponibilidade e confiabilidade de pipelines de dados e modelos em produção, automatizando processos de ingestão, transformação e inferência (inclusive integrações com APIs, SharePoint, e-mail e outros canais de entrega).Outras InformaçõesLocal de trabalho: Itaim Bibi/SP;Escala de trabalho: Seg a qui das 08 às 18h, sexta das 08 às 17h (Modelo híbrido).RequisitosEscolaridade minímaFormação superior completa