Quais serão seus desafios: - Projetar, desenvolver e manter pipelines de dados (ETL/ELT) robustos, garantindo a ingestão, transformação e disponibilização eficiente das informações; - Estruturar e organizar o Data Lake com base em boas práticas de camadas, otimizando o acesso e a governança dos dados; - Realizar a modelagem e estruturação de dados, assegurando a performance e escalabilidade das soluções implementadas; - Validar e conferir a integridade, qualidade e consistência dos dados, propondo correções ou melhorias quando necessário; - Monitorar e otimizar processos de ingestão e processamento de dados, com foco em desempenho e custo-benefício; - Implementar políticas de segurança e governança de dados, assegurando o compliance com normas internas e externas; - Documentar fluxos, processos e arquitetura de dados, promovendo a reutilização e a padronização de práticas dentro do time. O que você precisa ter: - Curso superior completo; - Experiência com processos ETL/ELT; - Conhecimento em arquitetura de Data Lake e organização por camadas; - Capacidade analítica e visão crítica para conferência e validação de dados; - Familiaridade com ferramentas e linguagens como Python, SQL, Spark, entre outras. Diferencial: - Experiência com ambientes em nuvem (AWS, Azure ou GCP); - Experiência com ferramentas Databricks / Airbyte / Embulk. Tipo de vaga: Efetivo CLT Benefícios: - Assistência médica - Assistência odontológica - Seguro de vida - Vale-alimentação - Vale-refeição - Vale-transporte Horário de trabalho: - De segunda à sexta-feira