Emprego
Meus anúncios
Meus alertas e-mail de emprego
Fazer login
Encontrar um emprego Dicas de emprego Fichas de empresas
Pesquisar

Engenheiro de dados gcp (dbt e etl) sr

Parnamirim (RN)
Atra
Anunciada dia 16 abril
Descrição

Engenheiro de Dados GCP (DBT e ETL) SR
Oportunidade: Engenheiro de Dados Sênior para projeto estratégico de migração de dados OnPrem para Google Cloud Platform (GCP).
Descrição do Cargo:
Responsável por projetar e implementar pipelines de dados robustos, utilizando DBT e tecnologias do ecossistema Google Cloud (BigQuery, Cloud Storage, Looker, etc.). Atuará com ferramentas ETL, garantindo extração, transformação e carga de dados de forma eficiente. Papel essencial na estruturação de dados para análises avançadas, garantindo processos escaláveis, seguros e otimizados.
Principais Responsabilidades:

Desenvolver e orquestrar pipelines de dados utilizando DBT, com otimização de macros e templates.
Projetar e otimizar estruturas de dados no Google Cloud (BigQuery), garantindo eficiência e desempenho em consultas SQL.
Implementar e manter processos de ETL, garantindo qualidade e governança dos dados migrados.
Utilizar Python para desenvolver scripts de automação e transformação de dados.

Engenheiro de Dados Júnior (Databricks)
Oportunidade: Engenheiro de Dados Júnior que apoia a construção e sustentação de pipelines de dados robustos e eficientes no ambiente Databricks.
Responsabilidades:

Apoiar a construção e sustentação de pipelines no Databricks, utilizando notebooks, jobs e pipelines.
Garantir a entrega contínua das camadas Bronze, Silver e Gold dentro da arquitetura de dados.
Ingerir, transformar e disponibilizar dados para consumo analítico.
Criar e manter tabelas Delta e views para suporte a dashboards e análises.
Atuar com compartilhamento e consumo de dados via Delta Sharing.
Apoiar a governança de dados utilizando Unity Catalog, gerenciando catálogos, schemas e permissões.
Monitorar execuções de pipelines, identificar falhas e realizar troubleshooting.
Corrigir causas-raiz e propor melhorias de confiabilidade e performance.
Implementar e/ou apoiar validações de qualidade de dados.
Documentar pipelines, regras de negócio e a linhagem básica dos dados.
Colaborar com analistas, times de BI e áreas de negócio para entendimento de requisitos e evolução das entregas.

Requisitos:

Conhecimento sólido de SQL (joins, agregações, CTEs, window functions e modelagem básica para analytics).
Conhecimento prático de Python para dados (manipulação, leitura/escrita e organização de código em notebooks).
Noções de Apache Spark/Databricks (DataFrames, particionamento, leitura/escrita em Delta e execução distribuída em alto nível).
Experiência inicial com Databricks (uso de notebooks, jobs, clusters e boas práticas básicas).
Familiaridade com pipelines de dados e arquitetura Medallion (Bronze/Silver/Gold).
Conhecimento em Git e controle de versão (branch, PR e resolução simples de conflitos).
Capacidade de investigar problemas (logs, métricas simples, reprocessamentos) e comunicar status com clareza.
Disponibilidade para atuar com sustentação de rotinas, acompanhando falhas e correções dentro do horário acordado.

Diferenciais:

Experiência com Azure Data Factory (pipelines, triggers, integrações, parâmetros, monitoramento).
Conhecimento prático de Unity Catalog (permissões, data access, boas práticas de governança).
Vivência com Delta Sharing (publicação/consumo e cuidados com segurança e contratos de dados).
Experiência com orquestração e automação (Databricks Workflows, CI/CD, Databricks Repos, Azure DevOps/GitHub Actions).
Conhecimento em Data Quality e Observabilidade (Ex.: Great Expectations/Deequ, métricas, SLIs/SLOs, alertas).
Experiência em otimização no Databricks/Delta (partitioning, Z-ORDER, OPTIMIZE/VACUUM, caching, controle de custos).
Noções de modelagem dimensional e consumo por ferramentas de BI (camadas semânticas, performance para dashboards).
Conhecimento de segurança e boas práticas (RBAC, segregação de ambientes, secrets, princípios de menor privilégio).

Senior Data Engineer – Volpi (AWS Lakehouse)
Oportunidade: Senior Data Engineer para liderar a construção da engenharia de dados da Volpi, baseando-se em um modelo de lakehouse na AWS.
Responsabilidades:

Desenhar, implementar e evoluir a arquitetura de dados na Volpi, com foco em um modelo de lakehouse na AWS.
Estruturar pipelines de ingestão, transformação e consumo de dados (batch e, futuramente, streaming).
Trabalhar com dados sensíveis de crédito e pessoas, seguindo padrões rigorosos de segurança, governança e compliance.
Lidar com dados distribuídos em múltiplos silos, conectando fontes e criando visões mais maduras para o negócio.
Atender demandas estratégicas de diferentes áreas (crédito, operações, produto, engenharia).
Organizar e evoluir o data lake existente (já temos estrutura inicial em AWS, Athena e S3).
Criar a base para produtos de dados futuros, incluindo análises avançadas de crédito.
Atuar de forma full‑cycle, da concepção técnica à implementação, operação e evolução em produção.

Qualificações:

5+ anos de experiência em engenharia de dados e/ou desenvolvimento de software, com ênfase em grandes volumes e alta disponibilidade.
Forte domínio de Python (nível produção) e SQL avançado (modelagem, performance, manipulação de grandes volumes).
Experiência prática na construção e manutenção de pipelines batch e near real‑time.
Experiência com mensageria e processamento de eventos (Pub/Sub, Kafka ou similares).
Experiência com orquestração de workflows (Airflow ou similar).
Experiência com ferramentas de transformação de dados (dbt ou similar).
Experiência em ambientes de nuvem, preferencialmente GCP.
Versionamento de código com Git/GitHub.
Conhecimento em Infraestrutura como Código (Terraform ou similar).
Conhecimento de boas práticas de modelagem de dados (dimensional, relacional, data vault), particionamento e otimização de queries.
Boas habilidades de comunicação e colaboração com times técnicos e de negócio.
Perfil proativo, orientado a resultados e com forte capacidade de resolução de problemas.
Interesse genuíno em evoluir tecnicamente em um ambiente dinâmico de fintech.

Diferenciais:

Experiência com BigQuery, Kubernetes (GKE), Cloud Storage, Pub/Sub e Docker.
Familiaridade com dbt, Dataform ou ferramentas similares.
Experiência com arquiteturas de dados em múltiplas camadas (raw, trusted, refined, datamart).
Experiência com integração de APIs externas ou ingestão de dados não estruturados.
Conhecimento em conceitos e ferramentas de Lakehouse (Delta Lake, Databricks, Cloudera).
Experiência com Spark, Flink ou frameworks de processamento distribuído.
Experiência no setor de serviços financeiros ou projetos relacionados a crédito e risco.
Conhecimento em ferramentas de BI e Data Apps (Streamlit, Tableau, Qlik).
Trabalho remoto (encontros ocasionais na sede).
Remuneração compatível (PJ).
Benefício flexível via cartão Swile.
Wellhub (antigo Gympass).
Convênio médico Porto Saúde.
Convênio odontológico Uniodonto.

Engenheiro de Dados Sênior – Oracle Cloud (OCI)
Oportunidade: Engenheiro(a) de Dados Sênior responsável por desenvolver e otimizar pipelines de dados em OCI.
Responsabilidades:

Desenvolver, manter e otimizar pipelines de dados em ambientes Oracle Cloud, com foco em Oracle Cloud Data Integration e Oracle Autonomous Data Warehouse (ADW).
Construir e gerenciar integrações de dados via APIs REST e ingestão de arquivos (CSV, JSON, XML, Parquet) a partir de fontes heterogêneas.
Extrair e harmonizar dados do Oracle Fusion Analytics Warehouse (FAW), consolidando informações financeiras e operacionais no Data Lake.
Modelar e estruturar dados nas camadas analíticas para suportar soluções de BI e relatórios analíticos em Power BI.
Trabalhar com processos de ingestão, transformação e disponibilização de dados (ETL/ELT) respeitando a arquitetura de camadas do Data Lake.
Apoiar a construção e manutenção do Catálogo de Dados no OCI, incluindo descoberta, linhagem e glossário.
Garantir boas práticas de governança, qualidade e segurança de dados.
Atuar em colaboração com times de arquitetura, analytics e áreas de negócio para entender demandas e propor soluções escaláveis.

Requisitos Necessários:

Experiência sólida como Engenheiro(a) de Dados em projetos sobre Oracle Cloud Infrastructure (OCI).
Experiência com OCI Data Integration ou ferramenta equivalente de orquestração e transformação de dados em Oracle Cloud.
Conhecimento em Oracle Autonomous Data Warehouse (ADW) e Oracle Object Storage.
Experiência com integração de dados via APIs REST e múltiplas fontes de dados heterogêneas.
Experiência com SQL avançado e modelagem de dados (dimensional e analítica).
Vivência com arquiteturas modernas de Data Lake em cloud, incluindo padrões de camadas de dados (medallion ou equivalente).
Vivência com ferramentas de ETL/ELT e integração de dados.
Experiência com linguagens de programação voltadas a dados (Python ou similar).

Diferenciais:

Experiência com Oracle Fusion Analytics Warehouse (FAW).
Vivência com Oracle Data Catalog para gestão de metadados e linhagem de dados.
Experiência com Oracle Integration Cloud (OIC) para integração de sistemas.
Familiaridade com Power BI.

Modelo de Trabalho: Contratação PJ, reembolso 100% em certificações, trilhas de capacitação e comunidades técnicas.
Diversidade e Inclusão
Para repensar o futuro, é essencial garantir ambientes mais diversos e inclusivos. Por isso, incentivamos fortemente a candidatura de mulheres, pessoas pretas, pardas, indígenas, LGBTQIAPN+ e pessoas com deficiência.
#J-18808-Ljbffr

Se candidatar
Criar um alerta
Alerta ativado
Salva
Salvar
Vagas parecidas
Emprego Parnamirim (RN)
Emprego Rio Grande do Norte
Emprego Nordeste
Página principal > Emprego > Engenheiro De Dados Gcp (Dbt E Etl) Sr

Jobijoba Brasil

  • Dicas de emprego

Encontre vagas

  • Vagas de emprego por cargo
  • Pesquisa de vagas de emprego por área
  • Empregos por empresas
  • Empregos por localização

Contato / Parceria

  • Entre em contato
  • Publique suas ofertas no site Jobijoba

Menções legais - Menções legais e termos de uso - Política de dados - Gerir os meus cookies - Acessibilidade: Não conforme

© 2026 Jobijoba Brasil - Todos os direitos reservados

Se candidatar
Criar um alerta
Alerta ativado
Salva
Salvar