Estamos em busca de um engenheiro de dados pleno para atuar de forma remota Principais Responsabilidades: Desenvolvimento de pipelines de dados: ingestão, tratamento, limpeza e garantia de qualidade dos dados. Modelagem de dados para soluções analíticas e operacionais. Implantação de pipelines e rotinas em ambientes de QA e Produção. Implementação de processos automatizados para verificação de sanidade e consistência dos dados. Otimização de desempenho e custo em pipelines usando PySpark e SQL. Requisitos Obrigatórios: Mínimo de 2 anos de experiência comprovada como Engenheiro(a) de Dados. Experiência sólida com Databricks e arquitetura Medallion. Experiência da plataforma Azure (Data Factory, Data Lake, etc.). Vivência com Data Lake, Delta Lake e Lakehouse. Desenvolvimento de pipelines utilizando PySpark, Scala ou tecnologias similares. Conhecimento avançado em SQL e tratamento de dados transacionais e relacionais. Capacidade de construir pipelines modulares e escaláveis. Conhecimento em boas práticas de performance e custo em PySpark e SQL. Boa comunicação e habilidade para lidar com diferentes perfis de stakeholders. Vivencia com problemas complexos em uma mbiente de equipe altamente colaborativo e ritmo acelerado Inglês intermediário a avançado. ? Diferenciais (não eliminatórios): Experiência com versionamento de código (Git) e práticas de CI/CD. Conhecimento em arquitetura de dados moderna e ferramentas de governança de dados. Experiência em ambientes ágeis.