 
        
        Desenvolva estratégias inovadoras para alinhar a arquitetura de dados ao negócio.
Implemente práticas de DataOps e CI/CD para pipelines, versionamento e deploy automatizado em GitHub/Azure DevOps.
Garantir observabilidade e monitoramento de pipelines e clusters (Azure Monitor, Log Analytics, Databricks Monitoring).
Requisitos Técnicos: Experiência sólida em Azure, com foco em Data Lake Gen2, Databricks (Delta Lake), Azure Data Factory, Synapse, Unity Catalog, Monitor/Log Analytics e Networking (VNets, ExpressRoute, VPNs).
Domínio em engenharia de dados, incluindo modelagem, processamento em batch e streaming, otimização de performance e custos.
Conhecimento em Infraestrutura como Código (Terraform, ARM Templates) e Governança de Dados (RBAC, IAM, LGPD, Zero Trust).
Práticas de CI/CD e DevOps aplicadas a pipelines de dados, com habilidades em Python e SQL para desenvolvimento de ETL/ELT em grande escala.
Competências Comportamentais:
Visão Estratégica: alinhamento ao negócio.
Comunicação eficaz: capacidade de traduzir questões técnicas para C-Level.
Proatividade: antecipar riscos de segurança e custos.
Colaboração: atuação conjunta com times de dados, desenvolvimento e segurança.
Autonomia: conduzir iniciativas de forma independente.