Transforme o seu futuro com dados.
No nosso time, acreditamos na tecnologia como força para transformar realidades e gerar impacto positivo. Desenvolvemos soluções que conectam inovação, eficiência e progresso em setores essenciais.
Aqui, você encontra um ambiente que valoriza a autonomia, a colaboração e o crescimento contínuo, com projetos desafiadores e oportunidades reais de desenvolvimento.
Nossos Valores
* Inovação
* Conexão
* Confiança
* Antecipação do Futuro
Se você busca desafios com significado, somos o seu lugar.
Funções da Vaga:
* Desenvolver e manter pipelines de dados em lote usando PySpark (focado em SQL)
* Escribir e otimizar consultas SQL complexas para dar suporte à lógica de negócios e às necessidades de relatórios
* Entender os requisitos de forma autônoma e traduzir para código
* Transformar e integrar dados de diversas fontes em tabelas Iceberg e Snowflake
* Contribuir para o desenvolvimento de data marts e conjuntos de dados selecionados para consumo comercial
* Colaborar com analistas de negócios para entender as necessidades de dados
* Monitore e gerenciar trabalhos de dados em execução no AWS EMR orquestrados pelo Airflow, aproveitando o S3, o Glue e outros serviços da AWS
* Garantar a qualidade, a consistência e o desempenho dos dados em todo o pipeline
Requisitos Técnicos e de Experiência:
* Especialista em Dados PL qualificado com uma base sólida em desenvolvimento baseado em SQL
* Experiência na criação e gerenciamento de data marts
* Exposição ao Airflow ou outras ferramentas de orquestração
* Familiaridade com ferramentas de infraestrutura como código, como o Terraform
* Compreensão dos padrões ODS (Operacional Data Store) e arquitetura de data lake
* Experiência com Bitbucket (ou qualquer ferramenta git semelhante)
* Experiência/compreensão de Jenkins
Habilidades Comportamentais e Competências:
* Fluência em inglês é um diferencial
* Experiência comprovada em SQL – incluindo junções, agregações, funções de janela e ajuste de desempenho
* Experiência prática com o PySpark, particularmente com o Spark SQL
* Familiaridade com os serviços de dados da AWS (por exemplo, EMR, S3, Glue)
* Compreensão de estruturas de modelagem de dados, incluindo a metodologia Kimball
* Experiência de trabalho com Snowflake ou data warehouses em nuvem semelhantes
* Conhecimento do Apache Iceberg ou formatos de tabela semelhantes (por exemplo, Delta Lake, Hudi)