**Sobre a Vaga:**
A missão é transformar realidades com tecnologia.
Nesse ambiente, você encontrará valorização em autonomia e crescimento contínuo, projetos desafiadores e oportunidades reais de desenvolvimento.
Foco em Administração Pública, Telecomunicações, Energia & Utilidades, Indústria & Consumo e Finanças.
**Requisitos Fundamentais:**
* Desenvolver pipelines de dados em lote usando PySpark (focado em SQL);
* Escrever e otimizar consultas SQL complexas para suportar logística de negócios;
* Entender requisitos de forma autônoma e traduzi-los para código;
* Transformar e integrar dados de diversas fontes em tabelas Iceberg e Snowflake;
* Contribuir para o desenvolvimento de data marts e conjuntos de dados selecionados para consumo comercial;
* Colaborar com analistas de negócios para entender necessidades de dados;
* Monitorar e gerenciar trabalhos de dados em execução no AWS EMR orquestrados pelo Airflow, aproveitando o S3, Glue e outros serviços da AWS;
* Garantir qualidade, consistência e desempenho dos dados em todo o pipeline.
**Benefícios do Trabalho Conosco:**
Um ambiente que valoriza inovação e aprendizado contínuo.
Atividades interessantes e projetos desafiadores.
**Outros Detalhes Importantes:
Seja um membro eficaz da nossa equipe. Buscamos profissionais competentes que tenham uma visão holística e sejam capazes de fazer conexões entre pessoas, sistemas e processos.