Responsabilidades e atribuiçõesAnalisar e compreender demandas desde sua origem;Desenvolver e evoluir pipelines de dados utilizando Azure Databricks, SQL e Python;Criar e publicar APIs para integração entre sistemas;Atuar em processos de DevOps, garantindo versionamento e automação de deploy;Apoiar atividades de modelagem de dados e organização das soluções em nuvem;Participar ativamente do ciclo completo das entregas, desde a concepção até a sustentação.Requisitos e qualificaçõesExperiência em Azure Databricks;Vivência prática em Azure DevOps, incluindo versionamento, CI/CD e automação de deploy;Experiência na criação e consumo de APIs utilizando Azure API Gateway;Domínio avançado de SQL para consulta, transformação e otimização de dados;Conhecimento sólido em Python, aplicado à engenharia de dados e automação de processos;Experiência em modelagem de dados, com capacidade de estruturar soluções analíticas e transacionais.Desejáveis:Experiência com Azure Data Factory para integração e orquestração de dados;Conhecimento em Azure Data Lake Storage Gen2 e organização de ambientes de dados em nuvem;Vivência com SAP DataSphere e integração de dados em ecossistema SAP;Experiência com KNIME Analytics Platform para tratamento e análise de dados;Conhecimento em SAP PowerDesigner para apoio em modelagem e documentação de dados.