Desenvolver Arquitetura e fluxo de Dados robusta e escalável, que suporte os times de dados e negócios, democratizando o acesso aos dados, de forma segura, simples, estruturada e com qualidade.
O que você precisa para fazer parte deste time:
* Experiência com implantação de arquitetura de dados e modelagem de camadas de dados;
* Ingestão de dados via Streaming (com foco no Azure Event Hub) e Batch;
* Conhecimento em Cloud (Azure)
* Linguagem de programação: Python e PySpark (com foco no Azure Databricks e Azure Functions);
* Construção de Pipelines de ingestão e manipulação de dados (ETL/ELT), com foco em Azure Data Factory;
* Conhecimento em banco de dados (SQL Server);
* Conhecimento em banco não-relacional (Cosmos DB).
Seus principais desafios serão:
* Criar e manter fluxos de dados (estruturados e ou não) que suportem soluções de negócio;
* Desenhar e construir novos modelos/pipelines de dados e criar novos processos de ETL/ELT e otimizar existentes.