Modelo de contratação: PJ (sem benefícios) Trabalho: Remoto ⏱ Dedicação: Fulltime Buscamos um(a) Engenheiro(a) de Dados Sênior com forte visão de negócio e arquitetura, capaz de atuar de ponta a ponta na cadeia de dados: desde a ingestão, processamento e orquestração de grandes volumes até a entrega de valor na camada de visualização. Você será responsável por garantir a escalabilidade, performance e governança do nosso ambiente analítico. O que você vai fazer no dia a dia: - Databricks & Azure: Desenvolver e otimizar pipelines escaláveis de ETL/ELT utilizando PySpark, Spark SQL e Delta Lake dentro do ecossistema Azure. - Orquestração de Processos: Criar, manter e monitorar DAGs complexas no Apache Airflow, garantindo fluxos de trabalho eficientes, tolerantes a falhas e executados no tempo correto. - Data Visualization & BI: Atuar como referência técnica em Power BI, desenvolvendo modelos dimensionais avançados, otimizando performance de relatórios e dominando a fundo DAX e Linguagem M (Power Query). - Arquitetura e Governança: Estruturar, manter e otimizar o Data Lake / Data Warehouse, estabelecendo padrões rigorosos de integridade e governança de dados no Power BI e nos ambientes Cloud. - Otimização e SQL: Elaborar e tunar consultas SQL/Spark SQL avançadas para consumo de dados e análises de performance. - Visão de Negócio: Traduzir dores e necessidades das áreas de negócios em soluções de dados, aplicando conceitos de melhoria contínua na engenharia e no monitoramento de KPIs. Requisitos Obrigatórios (Hard Skills): - Sólida experiência em Databricks (desenvolvimento de rotinas em PySpark, gestão de clusters e arquitetura Medallion/Delta Lake). - Forte conhecimento no ecossistema Microsoft Azure (integração entre serviços, Data Factory, Gen2, segurança). - Domínio em Apache Airflow para orquestração de dados. - Nível Especialista em Power BI, com conhecimento profundo em DAX, M e governança do Power BI Service. - Proficiência em Python e SQL Avançado. Diferenciais que farão você se destacar: - Experiência prévia com migrações entre nuvens (ex: AWS Athena/Glue para Azure/Databricks). - Familiaridade com Integração Contínua/Entrega Contínua (CI/CD) para dados no Azure DevOps.