Modelo de contratação:PJ (sem benefícios) Trabalho:Remoto Dedicação:FulltimeBuscamos um(a)Engenheiro(a) de Dados Sêniorcom forte visão de negócio e arquitetura, capaz de atuar de ponta a ponta na cadeia de dados: desde a ingestão, processamento e orquestração de grandes volumes até a entrega de valor na camada de visualização. Você será responsável por garantir a escalabilidade, performance e governança do nosso ambiente analítico.O que você vai fazer no dia a dia: • Databricks & Azure: Desenvolver e otimizar pipelines escaláveis de ETL/ELT utilizando PySpark, Spark SQL e Delta Lake dentro do ecossistema Azure. • Orquestração de Processos: Criar, manter e monitorar DAGs complexas no Apache Airflow, garantindo fluxos de trabalho eficientes, tolerantes a falhas e executados no tempo correto. • Data Visualization & BI: Atuar como referência técnica em Power BI, desenvolvendo modelos dimensionais avançados, otimizando performance de relatórios e dominando a fundo DAX e Linguagem M (Power Query). • Arquitetura e Governança: Estruturar, manter e otimizar o Data Lake / Data Warehouse, estabelecendo padrões rigorosos de integridade e governança de dados no Power BI e nos ambientes Cloud. • Otimização e SQL: Elaborar e tunar consultas SQL/Spark SQL avançadas para consumo de dados e análises de performance. • Visão de Negócio: Traduzir dores e necessidades das áreas de negócios em soluções de dados, aplicando conceitos de melhoria contínua na engenharia e no monitoramento de KPIs.Requisitos Obrigatórios (Hard Skills): • Sólida experiência emDatabricks(desenvolvimento de rotinas em PySpark, gestão de clusters e arquitetura Medallion/Delta Lake). • Forte conhecimento no ecossistema Microsoft Azure (integração entre serviços, Data Factory, Gen2, segurança). • Domínio em Apache Airflow para orquestração de dados. • Nível Especialista emPower BI, com conhecimento profundo em DAX, M e governança do Power BI Service. • Proficiência emPythoneSQLAvançado.Diferenciais que farão você se destacar: • Experiência prévia com migrações entre nuvens (ex: AWS Athena/Glue para Azure/Databricks). • Familiaridade com Integração Contínua/Entrega Contínua (CI/CD) para dados no Azure DevOps.