Buscamos um profissional experiente para desempenhar o papel de Data Engineer.
Ao assumir essa posição, você estará responsável por transformar dados complexos em informações estratégicas. Desenvolverá pipelines robustos e escaláveis, garantindo a qualidade e a segurança das informações. E gerar insights que apoiarão a tomada de decisões em várias áreas da empresa, incluindo finanças, clientes e software.
Responsabilidades:
* Desenvolver, criar uma arquitetura e pipeline de dados para: ingestão e ETL na cloud AWS e GCP;
* Modelar e/ou otimizar estruturas de dados utilizando banco de dados relacionais e não relacionais;
* Implementar processos de ELT para consolidar dados de múltiplas fontes (internos e externos) com foco em eficiência e escalabilidade;
* Implementar práticas de segurança e conformidade (LGPD, GDPR, ou outras) para proteção de dados sensíveis, incluindo criptografia e controle de acesso;
* Garantir qualidade, governança e rastreabilidade dos dados em todo ciclo de vida;
* Colaborar com uma equipe multidisciplinar de Devs, PMs, Tech Leads e Staffs para entender os requisitos e entregar soluções de ponta-a-ponta.
Requisitos:
* Formação acadêmica em Ciência da Computação, Estatística, Matemática, Engenharia, Economia, ou áreas relacionadas;
* Experiência mínima de 5 anos como Engenheiro de Dados ou em funções similares;
* Fortes conhecimentos em conceitos de data warehousing, data lakes, processos ETL, e data modeling (OLAP e OLTP);
* Conhecimentos sólidos dos componentes da AWS para armazenamento e processamento de dados (Postgres, RedShift, Kinesis, Lambdas, AWS Glue etc.) e GCP (BigQuery, Cloud Storage etc);
* Linguagens de Programação: Proficiente em SQL e experiência com linguagens como Python e frameworks de processamento (Spark, Flink);
* Vivência com frameworks de transformação de dados como DBT Core e ferramentas de orquestração como Apache Airflow;
* Experiência com SaaS e na construção de indicadores de negócio;
Desejável:
* Experiência prévia em ambiente SaaS;
* Conhecimento de governança de dados;
* Ter trabalhado com AWS GLUE, Dbt e BigQuery;