Responsabilidades e atribuições
* Analisar e compreender demandas desde sua origem;
* Desenvolver e evoluir pipelines de dados utilizando Azure Databricks, SQL e Python;
* Criar e publicar APIs para integração entre sistemas;
* Atuar em processos de DevOps, garantindo versionamento e automação de deploy;
* Apoiar atividades de modelagem de dados e organização das soluções em nuvem;
* Participar ativamente do ciclo completo das entregas, desde a concepção até a sustentação.
Requisitos e qualificações
* Experiência em Azure Databricks;
* Vivência prática em Azure DevOps, incluindo versionamento, CI/CD e automação de deploy;
* Experiência na criação e consumo de APIs utilizando Azure API Gateway;
* Domínio avançado de SQL para consulta, transformação e otimização de dados;
* Conhecimento sólido em Python, aplicado à engenharia de dados e automação de processos;
* Experiência em modelagem de dados, com capacidade de estruturar soluções analíticas e transacionais.
Desejáveis:
* Experiência com Azure Data Factory para integração e orquestração de dados;
* Conhecimento em Azure Data Lake Storage Gen2 e organização de ambientes de dados em nuvem;
* Vivência com SAP DataSphere e integração de dados em ecossistema SAP;
* Experiência com KNIME Analytics Platform para tratamento e análise de dados;
* Conhecimento em SAP PowerDesigner para apoio em modelagem e documentação de dados.