O que buscamos:
Profissional de nível Pleno/Sênior que atue com (Dados). Modelo de atuação híbrido, 1 a 2x por semana – Morumbi/SP.
Responsabilidades:
* Atuar como referência técnica em engenharia de dados Azure, orientando o time em padrões de implementação, troubleshooting e boas práticas;
* Projetar, desenvolver e sustentar pipelines de dados em Azure Data Factory e Databricks, garantindo execução resiliente, reprocessamento e rastreabilidade;
* Implementar e evoluir arquitetura Lakehouse com Delta Lake e camadas Bronze, Silver, Gold;
* Desenvolver transformações em PySpark e SQL, com foco em performance, paralelismo, particionamento e redução de custo;
* Implementar padrões de qualidade de dados: validações, reconciliação, deduplicação, tratamento de inconsistências e trilha de auditoria;
* Projetar e implementar integrações com fontes corporativas (bancos relacionais e APIs) e suportar ingestão incremental e CDC quando aplicável;
* Definir e supervisionar padrões de governança, segurança e compliance em dados, incluindo controle de acesso e conformidade com LGPD;
* Apoiar o time em revisões técnicas, otimização de performance, gestão de incidentes complexos e análise de causa raiz;
* Garantir aderência às melhores práticas de engenharia de dados, observabilidade e operação em produção (logs, métricas, alertas e SLAs).
Requisitos :
* Experiência sólida como Engenheiro(a) de Dados em Azure;
* Experiência comprovada com Databricks em produção (Jobs/Workflows, clusters, policies, repos e secrets);
* Domínio de Apache Spark (PySpark) e Python para processamento distribuído;
* SQL avançado para transformação, otimização e modelagem analítica;
* Experiência com Delta Lake (MERGE, schema evolution/enforcement, OPTIMIZE/ZORDER, VACUUM e boas práticas de escrita/leitura);
* Domínio de Azure Data Lake Storage Gen2 (ADLS) e organização de dados por domínio e camadas;
* Experiência com Azure Data Factory (pipelines, triggers, parametrização, integrações e monitoração);
* Vivência com Git e CI/CD aplicados a pipelines de dados e promoção entre ambientes;
* Conhecimento sólido em segurança (RBAC, Key Vault, identities) e práticas de auditoria/compliance.
Desejável:
* Experiência com Unity Catalog (governança, permissões e lineage);
* Conhecimento em Delta Live Tables e Auto Loader;
* Experiência com IaC (Terraform, Bicep/ARM);
* Vivência com observabilidade de pipelines (Azure Monitor, Log Analytics, alertas e runbooks);
* Experiência com Purview (catálogo e governança);
* Certificações Azure (AZ-900, DP-900, DP-203) e/ou certificações Databricks (Data Engineer Associate/Professional);
* Experiência em setor regulado (financeiro, seguros) com requisitos fortes de auditoria e compliance.
Descrição comportamental:
Procuramos uma pessoa que:
* Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
* Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
* Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
* Tenha habilidades de resolução de problemas ;
* Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo ;
* Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver – small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT