Desenvolver Arquitetura e fluxo de Dados robusta e escalável, que suporte os times de dados e negócios, democratizando o acesso aos dados, de forma segura, simples, estruturada e com qualidade.O que você precisa para fazer parte deste time:Experiência com implantação de arquitetura de dados e modelagem de camadas de dados;Ingestão de dados via Streaming (com foco no Azure Event Hub) e Batch;Conhecimento em Cloud (Azure)Linguagem de programação: Python e PySpark (com foco no Azure Databricks e Azure Functions);Construção de Pipelines de ingestão e manipulação de dados (ETL/ELT), com foco em Azure Data Factory;Conhecimento em banco de dados (SQL Server);Conhecimento em banco não-relacional (Cosmos DB).Seus principais desafios serão:Criar e manter fluxos de dados (estruturados e ou não) que suportem soluções de negócio;Desenhar e construir novos modelos/pipelines de dados e criar novos processos de ETL/ELT e otimizar existentes.