Buscamos um profissional para o papel de Engenheiro de Dados em uma equipe dedicada ao desenvolvimento de soluções inovadoras.
Para esse cargo, iremos oferecer oportunidades de crescimento profissional e desafios interessantes.
Os responsáveis por essa posição:
* Desenvolverão pipelines de dados em lote utilizando PySpark (focado em SQL);
* Escribirão e otimizarão consultas SQL complexas;
* Entenderão os requisitos de forma autônoma;
* Transformarão e integrarão dados de diversas fontes;
* Contribuirão para o desenvolvimento de data marts;
* Colaborarão com analistas de negócios;
* Monitorem e gerenciarão trabalhos de dados em execução no AWS EMR orquestrados pelo Airflow;
O candidato deve ter:
* Uma base sólida em desenvolvimento baseado em SQL;
* Experiência na criação e gerenciamento de data marts;
* Familiaridade com ferramentas de infraestrutura como código;
* Compreensão dos padrões ODS (Operacional Data Store) e arquitetura de data lake;
* Experiência com Bitbucket;
* Fluência em inglês é um diferencial;
A nossa empresa oferece:
* Modelo de contratação CLT;
* Plano de Saúde subsidiado;
* Vale Refeição no cartão Flash Benefícios;
* Vale Transporte;
* POP - Programa de Orientação Pessoal;
* Parcerias com grandes marcas de consumo;
* Convênio com o SESC;
* Convênios para descontos;
* Seguro de vida em grupo;
Descrição do Cargo
Se você é um profissional comprometido e proativo que busca um desafio significativo, está na hora de se juntar a nós!
Responsabilidades:
1. Pipeline de Dados: Desenvolver e manter pipelines de dados em lote usando PySpark (focado em SQL).
2. Consultas SQL: Escrever e otimizar consultas SQL complexas para dar suporte à lógica de negócios e às necessidades de relatórios.
3. Requisitos Autônomos: Entender os requisitos de forma autônoma e traduzir para código.
4. Dados Integrados: Transformar e integrar dados de diversas fontes em tabelas Iceberg e Snowflake.
5. Data Marts: Contribuir para o desenvolvimento de data marts e conjuntos de dados selecionados para consumo comercial.
6. Collaboração: Colaborar com analistas de negócios para entender as necessidades de dados.
7. Montagem de Trabalho: Monitore e gerencie trabalhos de dados em execução no AWS EMR orquestrados pelo Airflow.
Requisitos do Candidato
* SQL Proficiente: Analista de Dados PL qualificado com uma base sólida em desenvolvimento baseado em SQL.
* Gerenciamento de Data Marts: Experiência na criação e gerenciamento de data marts.
* Ferramentas de Infraestrutura: Familiaridade com ferramentas de infraestrutura como código.
* Padrões de Negócios: Compreensão dos padrões ODS (Operacional Data Store) e arquitetura de data lake.
* Git Experience: Experiência com Bitbucket (ou qualquer ferramenta git semelhante).
* Inglês Fluente: Fluência em inglês é um diferencial.