Atuação híbrida em Curitiba / PR. Requisitos: * Experiência em trabalhar em projetos ágeis. * Conhecimento no ecossistema Azure. * Experiência básica com Azure DevOps, incluindo trabalho com Repos, branches, Pull requests, tarefas, acompanhamento de pipelines CI/CD e uso de GIT. * Conhecimento em linguagens Python. * Domínio em SQL, incluindo DDL e DML. * Experiência com Azure Data Factory. * Experiência com Azure Databricks, incluindo criação, inicialização e utilização de clusters, uso do Databricks Repos, execução de SQL e desenvolvimento em PySpark. * Utilização de Azure Storage Accounts e Data Lake Store Gen 2. * Experiência em projetos de ingestão e transformação de dados. Atribuições: * Atuar em projetos ágeis de engenharia de dados, garantindo boas práticas de versionamento e integração contínua. * Desenvolver e manter pipelines de ingestão e transformação de dados utilizando Azure Data Factory e Databricks (PySpark e SQL). * Gerenciar repositórios, branches, pull requests e pipelines CI/CD no Azure DevOps. * Projetar, otimizar e executar consultas SQL (DDL e DML) para manipulação de grandes volumes de dados. * Utilizar Python em processos de automação e tratamento de dados. * Administrar e organizar dados em Azure Storage Accounts e Data Lake Gen 2. * Garantir qualidade, governança e disponibilidade dos dados para apoiar decisões estratégicas. Formação Acadêmica: Não informado Salário: A combinar Cargo: Engenheiro civil Empresa: Capitani group Consultoria em tecnologia da informação e telecomunicações. Ramo: Informática/ Tecnologia (EF)