📄 Modelo de contratação: PJ (sem benefícios)
📍 Trabalho: Remoto
⏱ Dedicação: Fulltime
Buscamos um(a) Engenheiro(a) de Dados Sênior com forte visão de negócio e arquitetura, capaz de atuar de ponta a ponta na cadeia de dados: desde a ingestão, processamento e orquestração de grandes volumes até a entrega de valor na camada de visualização. Você será responsável por garantir a escalabilidade, performance e governança do nosso ambiente analítico.
O que você vai fazer no dia a dia:
• Databricks & Azure: Desenvolver e otimizar pipelines escaláveis de ETL/ELT utilizando PySpark, Spark SQL e Delta Lake dentro do ecossistema Azure.
• Orquestração de Processos: Criar, manter e monitorar DAGs complexas no Apache Airflow, garantindo fluxos de trabalho eficientes, tolerantes a falhas e executados no tempo correto.
• Data Visualization & BI: Atuar como referência técnica em Power BI, desenvolvendo modelos dimensionais avançados, otimizando performance de relatórios e dominando a fundo DAX e Linguagem M (Power Query).
• Arquitetura e Governança: Estruturar, manter e otimizar o Data Lake / Data Warehouse, estabelecendo padrões rigorosos de integridade e governança de dados no Power BI e nos ambientes Cloud.
• Otimização e SQL: Elaborar e tunar consultas SQL/Spark SQL avançadas para consumo de dados e análises de performance.
• Visão de Negócio: Traduzir dores e necessidades das áreas de negócios em soluções de dados, aplicando conceitos de melhoria contínua na engenharia e no monitoramento de KPIs.
Requisitos Obrigatórios (Hard Skills):
• Sólida experiência em Databricks (desenvolvimento de rotinas em PySpark, gestão de clusters e arquitetura Medallion/Delta Lake).
• Forte conhecimento no ecossistema Microsoft Azure (integração entre serviços, Data Factory, Gen2, segurança).
• Domínio em Apache Airflow para orquestração de dados.
• Nível Especialista em Power BI, com conhecimento profundo em DAX, M e governança do Power BI Service.
• Proficiência em Python e SQL Avançado.
Diferenciais que farão você se destacar:
• Experiência prévia com migrações entre nuvens (ex: AWS Athena/Glue para Azure/Databricks).
• Familiaridade com Integração Contínua/Entrega Contínua (CI/CD) para dados no Azure DevOps.