Descrição do Cargo:
* No âmbito de nossos projetos, você irá contribuir para transformar o futuro com seus conhecimentos em análise de dados.
* Aqui você encontrará um ambiente que valoriza a autonomia, a colaboração e o crescimento contínuo, com projetos desafiadores e oportunidades reais de desenvolvimento.
* Competências Técnicas: Desenvolver e manter pipelines de dados em lote usando PySpark (focado em SQL), escrever e otimizar consultas SQL complexas para dar suporte à lógica de negócios e às necessidades de relatórios.
* Habilidades Necessárias: Entender os requisitos de forma autônoma e traduzir para código, transformar e integrar dados de diversas fontes em tabelas Iceberg e Snowflake.
* Papel no Equipe: Contribuir para o desenvolvimento de data marts e conjuntos de dados selecionados para consumo comercial, colaborar com analistas de negócios para entender as necessidades de dados.
* Tecnologias Empregadas: Monitore e gerenciar trabalhos de dados em execução no AWS EMR orquestrados pelo Airflow, aproveitando o S3, o Glue e outros serviços da AWS. Garantir a qualidade, a consistência e o desempenho dos dados em todo o pipeline.