O que buscamos:
Profissional de nível Pleno/Sênior que atue com (Dados). Modelo de atuação híbrido, 1 a 2x por semana – Morumbi/SP.
Responsabilidades:
Atuar como referência técnica em engenharia de dados Azure, orientando o time em padrões de implementação, troubleshooting e boas práticas;
Projetar, desenvolver e sustentar pipelines de dados em Azure Data Factory e Databricks, garantindo execução resiliente, reprocessamento e rastreabilidade;
Implementar e evoluir arquitetura Lakehouse com Delta Lake e camadas Bronze, Silver, Gold;
Desenvolver transformações em PySpark e SQL, com foco em performance, paralelismo, particionamento e redução de custo;
Implementar padrões de qualidade de dados: validações, reconciliação, deduplicação, tratamento de inconsistências e trilha de auditoria;
Projetar e implementar integrações com fontes corporativas (bancos relacionais e APIs) e suportar ingestão incremental e CDC quando aplicável;
Definir e supervisionar padrões de governança, segurança e compliance em dados, incluindo controle de acesso e conformidade com LGPD;
Apoiar o time em revisões técnicas, otimização de performance, gestão de incidentes complexos e análise de causa raiz;
Garantir aderência às melhores práticas de engenharia de dados, observabilidade e operação em produção (logs, métricas, alertas e SLAs).
Requisitos :
Experiência sólida como Engenheiro(a) de Dados em Azure;
Experiência comprovada com Databricks em produção (Jobs/Workflows, clusters, policies, repos e secrets);
Domínio de Apache Spark (PySpark) e Python para processamento distribuído;
SQL avançado para transformação, otimização e modelagem analítica;
Experiência com Delta Lake (MERGE, schema evolution/enforcement, OPTIMIZE/ZORDER, VACUUM e boas práticas de escrita/leitura);
Domínio de Azure Data Lake Storage Gen2 (ADLS) e organização de dados por domínio e camadas;
Experiência com Azure Data Factory (pipelines, triggers, parametrização, integrações e monitoração);
Vivência com Git e CI/CD aplicados a pipelines de dados e promoção entre ambientes;
Conhecimento sólido em segurança (RBAC, Key Vault, identities) e práticas de auditoria/compliance.
Desejável:
Experiência com Unity Catalog (governança, permissões e lineage);
Conhecimento em Delta Live Tables e Auto Loader;
Experiência com IaC (Terraform, Bicep/ARM);
Vivência com observabilidade de pipelines (Azure Monitor, Log Analytics, alertas e runbooks);
Experiência com Purview (catálogo e governança);
Certificações Azure (AZ-900, DP-900, DP-203) e/ou certificações Databricks (Data Engineer Associate/Professional);
Experiência em setor regulado (financeiro, seguros) com requisitos fortes de auditoria e compliance.
Descrição comportamental:
Procuramos uma pessoa que:
Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
Tenha habilidades de resolução de problemas ;
Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo ;
Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver – small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT