Estamos em busca de um(a) Engenheiro(a) de Dados para atuar com construção e otimização de pipelines em PySpark/Databricks, utilizando recursos do Azure. A posição envolve projetos de ingestão, transformação e governança de dados, com foco em performance, qualidade e segurança. Local de trabalho híbrido.* Desenvolver e manter pipelines de dados em PySpark/DatabricksEscrever e otimizar SQL para grandes volumes de dadosAtuar em projetos de ingestão, transformação e governança em Azure Data Lake e Data FactoryGarantir performance, qualidade e segurança dos dadosColaborar com times de negócio e analytics para entregar datasets confiáveis* Experiência prática em SQL, PySpark, Databricks e AzureConhecimento em ADF, Data Lake e boas práticas de modelagemVivência com versionamento de código (Git) e metodologias ágeisDiferenciais: Delta Lake, Unity Catalog, CI/CD e arquitetura de dados (Lakehouse, Data Mesh)Refer to Job description section for qualification required