Responsabilidades e atribuiçõesAnalisar e compreender demandas desde sua origem; Desenvolver e evoluir pipelines de dados utilizando Azure Databricks, SQL e Python; Criar e publicar APIs para integração entre sistemas; Atuar em processos de DevOps, garantindo versionamento e automação de deploy; Apoiar atividades de modelagem de dados e organização das soluções em nuvem; Participar ativamente do ciclo completo das entregas, desde a concepção até a sustentação.Requisitos e qualificaçõesExperiência em Azure Databricks; Vivência prática em Azure DevOps, incluindo versionamento, CI/CD e automação de deploy; Experiência na criação e consumo de APIs utilizando Azure API Gateway; Domínio avançado de SQL para consulta, transformação e otimização de dados; Conhecimento sólido em Python, aplicado à engenharia de dados e automação de processos; Experiência em modelagem de dados, com capacidade de estruturar soluções analíticas e transacionais.Desejáveis: Experiência com Azure Data Factory para integração e orquestração de dados; Conhecimento em Azure Data Lake Storage Gen2 e organização de ambientes de dados em nuvem; Vivência com SAP DataSphere e integração de dados em ecossistema SAP; Experiência com KNIME Analytics Platform para tratamento e análise de dados; Conhecimento em SAP PowerDesigner para apoio em modelagem e documentação de dados.