Projetar arquiteturas de dados escaláveis em cloud (Azure Fabric, Databricks) ● Desenhar pipelines de ingestão em tempo real e batch (Kafka, Event Hubs, Service Bus) ● Modelar Data Lakehouses com Delta Lake e otimizar particionamento ● Definir estratégias de governança e segurança (Purview, RBAC, data lineage) ● Migração e Modernização ● Converter sistemas legados para plataformas modernas ● Traduzir lógica complexa de stored procedures para PySpark/SQL ● Validar integridade de dados pós-migração e corrigir discrepâncias ● Implementar processos de delta load e CDC (Change Data Capture) ● Performance e Qualidade ● Otimizar queries e processamentos para grande volume de dados ● Estabelecer deduplicação e validação de schemas ● Implementar monitoramento e observabilidade (Application Insights) ● Documentação e Colaboração ● Documentar arquiteturas com diagramas técnicos ● Criar mapeamentos DE-PARA entre sistemas legados e novos ● Trabalhar com stakeholders de negócio e times de BI/analyticsREQUISITOS TÉCNICOS ● PySpark / Apache Spark (transformações complexas, window functions, joins) ● SQL avançado (CTEs, window functions, otimização) ● Microsoft Fabric e Databricks (Lakehouse, Delta Lake) ● Azure (Event Hubs, Storage, Data Factory, Key Vault) ● Modelagem dimensional e normalização ● Git e CI/CDREQUISITOS TÉCNICOS DESEJÁVEIS ● Kafka e streaming em tempo reale NRT ● Power BI (Direct Lake, DAX) ● Oracle Siebel ou CRMs enterprise ● Python para automação ● Schemas JSON/Parquet ● Microsoft PurviewOUTROS DIFERENCIAIS ● Experiência com migração de sistemas legados ● Redução de custos operacionais e FinOps ● Certificações Azure (DP-203, AZ-305)