Emprego
Meus anúncios
Meus alertas e-mail de emprego
Fazer login
Encontrar um emprego Dicas de emprego Fichas de empresas
Pesquisar

Engenheiro de dados gcp (dbt e etl) sr

Sinop
Atra
Anunciada dia 14 abril
Descrição

Engenheiro de Dados GCP (DBT e ETL) SR
Será responsável por projetar e implementar pipelines de dados robustos, utilizando DBT e tecnologias do ecossistema Google Cloud (BigQuery, Cloud Storage, LookerML, etc.). Além disso, deverá atuar com ferramentas ETL, garantindo a extração, transformação e carga de dados de forma eficiente. Será um papel essencial na estruturação de dados para análises avançadas, garantindo que os processos sejam escaláveis, seguros e otimizados.
Responsabilidades

Desenvolver e orquestrar pipelines de dados utilizando DBT, com otimização de macros e templates.
Projetar e otimizar estruturas de dados no Google Cloud (BigQuery), garantindo eficiência e desempenho em consultas SQL.
Implementar e manter processos de ETL, garantindo qualidade e governança dos dados migrados.
Utilizar Python para desenvolver scripts de automação e transformação de dados.
Expertise em arquitetura AWS, Infraestrutura como Código (Terraform ou CloudFormation preferencial), Pipelines CI/CD, Design de observabilidade e monitoramento.
Ajuste de desempenho e planejamento de capacidade.
Automação de tarefas operacionais, análise de tendências de incidentes e estratégias para redução do MTTR.
Metodologia de análise de causa raiz.
Melhores práticas de DevOps e SRE – Detalhe técnico necessário: Arquitetura AWS, Infraestrutura como Código (Terraform ou CloudFormation preferencial), Pipelines CI/CD.
Melhores práticas de DevOps e SRE – Skills Comportamentais: Liderança Técnica, Alta capacidade de auto‑gerenciamento.
Saber definir padrões técnicos e boas práticas para o time.
Visão de Negócio: Entender a necessidade dos stakeholders e traduzi‑la em soluções escaláveis.
Comunicação: Clareza ao explicar conceitos complexos a perfis não técnicos.
Documentação e storytelling com dados – Resiliência e Ownership.
Assumir a responsabilidade pelo ciclo de vida do dado (desde a ingestão até o consumo).
Resolver problemas em cenários de alta pressão.
Colaboração e Trabalho em Equipe – Capacidade de trabalhar em squads multidisciplinares (com analistas, cientistas de dados, engenheiros de software).
Cultura DevOps Agile (Scrum ou Kanban).

Benefícios

Modelo de contratação CLT.
Plano de Saúde subsidiado pela empresa para o titular.
Opção de inclusão de dependentes no Plano de Saúde com desconto em folha de pagamento.
Assistência Odontológica (opcional).
Vale Refeição no cartão Flash Benefícios.
POP – Programa de Orientação Pessoal (apoio emocional, jurídico, financeiro, social e pet).
Plataforma de Saúde Wellhub-Gympass (acesso a mais de 700 academias).
Convênio com o SESC para titular e dependentes.
Convênios para descontos com instituições de ensino e escola de idiomas.
Seguro de vida em grupo.

Engenheiro de Dados Júnior
Como Engenheiro de Dados Júnior, seu papel será crucial no apoio à construção e sustentação de pipelines de dados robustos e eficientes, principalmente no ambiente Databricks.
Responsabilidades

Apoiar a construção e sustentação de pipelines de dados no Databricks, utilizando notebooks, jobs e pipelines.
Garantir a entrega contínua das camadas Bronze, Silver e Gold dentro da arquitetura de dados.
Ingerir, transformar e disponibilizar dados para consumo analítico.
Criar e manter tabelas Delta e views para suporte a dashboards e análises.
Atuar com compartilhamento e consumo de dados via Delta Sharing.
Apoiar a governança de dados utilizando Unity Catalog, gerenciando catálogos, schemas e permissões.
Monitorar execuções de pipelines, identificar falhas e realizar troubleshooting.
Corrigir causas‑raiz e propor melhorias de confiabilidade e performance.
Implementar e/ou apoiar validações de qualidade de dados.
Documentar pipelines, regras de negócio e a linhagem básica dos dados.
Colaborar com analistas, times de BI e áreas de negócio para entendimento de requisitos e evolução das entregas.

Qualificações

Conhecimento sólido de SQL (joins, agregações, CTEs, window functions e modelagem básica para analytics).
Conhecimento prático de Python para dados (manipulação, leitura/escrita e organização de código em notebooks).
Noções de Apache Spark/Databricks (DataFrames, particionamento, leitura/escrita em Delta e execução distribuída em alto nível).
Experiência inicial com Databricks (uso de notebooks, jobs, clusters e boas práticas básicas).
Familiaridade com pipelines de dados e arquitetura Medallion (Bronze/Silver/Gold), mesmo em contexto acadêmico ou projetos.
Conhecimento em Git e controle de versão (branch, PR e resolução simples de conflitos).
Capacidade de investigar problemas (logs, métricas simples, reprocessamentos) e comunicar status com clareza.
Disponibilidade para atuar com sustentação de rotinas, acompanhando falhas e correções dentro do horário acordado.

Você pode se destacar se

Tiver experiência com Azure Data Factory (pipelines, triggers, integrações, parâmetros, monitoramento).
Possuir conhecimento prático de Unity Catalog (permissões, data access, boas práticas de governança).
Tiver vivência com Delta Sharing (publicação/consumo e cuidados com segurança e contratos de dados).
Possuir experiência com orquestração e automação (Databricks Workflows, CI/CD, Databricks Repos, Azure DevOps/GitHub Actions).
Tiver conhecimento em Data Quality e Observabilidade (ex.: Great Expectations/Deequ, métricas, SLIs/SLOs, alertas).
Possuir experiência em otimização no Databricks/Delta (partitioning, Z-ORDER, OPTIMIZE/VACUUM, caching, controle de custos).
Tiver noções de modelagem dimensional e consumo por ferramentas de BI (camadas semânticas, performance para dashboards).
Possuir conhecimento de segurança e boas práticas (RBAC, segregação de ambientes, secrets, princípios de menor privilégio).

Senior Data Engineer – Volpi
Buscamos um Senior Data Engineer para liderar a construção da engenharia de dados da Volpi desde a base.
Responsabilidades

Desenhar, implementar e evoluir a arquitetura de dados da Volpi, com foco em um modelo de lakehouse na AWS.
Estruturar pipelines de ingestão, transformação e consumo de dados (batch e, futuramente, streaming).
Trabalhar com dados sensíveis de crédito e pessoas, seguindo padrões rigorosos de segurança, governança e compliance.
Lidar com dados distribuídos em múltiplos silos, conectando fontes e criando visões mais maduras para o negócio.
Atender demandas estratégicas de diferentes áreas (crédito, operações, produto, engenharia).
Organizar e evoluir o data lake existente (já temos estrutura inicial em AWS, Athena e S3).
Criar a base para produtos de dados futuros, incluindo análises avançadas de crédito e soluções orientadas a dados.
Atuar de forma full‑cycle, da concepção técnica à implementação, operação e evolução em produção.

Qualificações

Experiência sólida como Data Engineer, com forte mentalidade de engenharia.
Domínio de Python e SQL para construção de pipelines e soluções de dados em produção.
Experiência prática com AWS, especialmente serviços como S3, Athena e IAM.
Conhecimento e uso de Infraestrutura como Código (IaC).
Vivência com pipelines de dados em produção, lidando com volumes relevantes e dados sensíveis.
Forte preocupação com segurança da informação, padrões de projeto e boas práticas de engenharia.
Experiência em ambientes de startup, lidando com pouco legado e muita construção do zero.
Autonomia para tomar decisões técnicas e conduzir projetos end‑to‑end.
Capacidade de traduzir necessidades de negócio em soluções de dados escaláveis.
Comunicação clara e estruturada, especialmente em ambientes assíncronos.

Diferenciais

Experiência com arquiteturas de dados modernas, como lakehouse.
Uso de ferramentas de orquestração e transformação de dados (ex.: Airflow, dbt ou similares).
Atuação em domínios complexos e regulados, como financeiro, crédito ou seguros.
Vivência na construção e estruturação de plataformas ou áreas de dados desde o início.
Modelo remoto prioritário.
Plano de saúde Alice (100% pago para titular e dependentes).
R$1.000/ano de auxílio educação.
30 dias de descanso remunerado + 10 dias de recesso de fim de ano.
Day off no aniversário.
TotalPass (incluindo TotalMind).
Acesso ao Wework.
Encontros presenciais para troca e conexão com a nossa Tribo.

Data Engineer – Stefanini
Responsabilidades

Definir e estruturar a arquitetura de dados da organização.
Desenvolver e orientar a construção de pipelines de dados (batch e streaming).
Garantir a qualidade, integridade e governança dos dados.
Apoiar a implementação de soluções voltadas para inteligência artificial.
Atuar em conjunto com times técnicos e de negócio.
Otimizar o uso de recursos em ambientes de nuvem.

Qualificações

Superior completo nas áreas de Tecnologia.
Conhecimento com arquitetura de dados e engenharia de dados.
Conhecimento em Lake House e Data Mesh, vivência com ferramentas.
Domínio de Python e SQL (nível intermediário/avançado – perfil próximo a DBA).

Benefícios

Vale alimentação ou vale–refeição.
Desconto em cursos, universidades e instituições de idiomas.
Academia Stefanini – plataforma de cursos online com certificados.
Clube de vantagens para consultas e exames.
Assistência médica.

Data Engineer – TerraMagna
Responsabilidades

Contribuir ativamente para a criação e evolução de produtos e serviços no universo de Crédito e Risco.
Colaborar com as equipes de negócios para entender requisitos de dados e entregar soluções técnicas avançadas.
Desenvolver pipelines robustos de ingestão de dados massivos (batch, near real‑time e real‑time), garantindo confiabilidade e eficiência.
Assegurar que a arquitetura de dados esteja alinhada com os objetivos do negócio.
Trabalhar com equipes multifuncionais para integrar dados em nossos produtos e serviços.
Identificar oportunidades para aquisição de novos dados e propor melhorias contínuas em disponibilidade, confiabilidade e eficiência.
Facilitar a democratização dos dados em toda a empresa.
Compreender profundamente os produtos e serviços da TerraMagna para melhor atender às necessidades internas.
Manter-se atualizado com tendências e melhores práticas em Engenharia e Ciência de Dados.

Qualificações

5+ anos de experiência em engenharia de dados e/ou desenvolvimento de software, com ênfase em grandes volumes de dados e alta disponibilidade.
Forte domínio de Python (nível produção) e SQL avançado (modelagem, performance, manipulação de grandes volumes).
Experiência prática na construção e manutenção de pipelines de dados batch e near real‑time.
Experiência com mensageria e processamento de eventos (Pub/Sub, Kafka ou similares).
Experiência com orquestração de workflows (Airflow ou similar).
Experiência com ferramentas de transformação de dados (dbt ou similar).
Experiência em ambientes de nuvem, preferencialmente Google Cloud Platform (GCP).
Versionamento de código com Git/GitHub.
Conhecimento em Infraestrutura como Código (Terraform ou similar).
Conhecimento de boas práticas de modelagem de dados (dimensional, relacional, data vault), particionamento e otimização de queries.
Boas habilidades de comunicação e colaboração com times técnicos e de negócio.
Perfil proativo, orientado a resultados e com forte capacidade de resolução de problemas.
Interesse genuíno em evoluir tecnicamente em um ambiente dinâmico de fintech.

Diferenciais

Experiência com BigQuery, Kubernetes (GKE), Cloud Storage, Pub/Sub e Docker.
Familiaridade com dbt, Dataform ou ferramentas similares de transformação de dados.
Experiência com arquiteturas de dados em múltiplas camadas (raw, trusted, refined, datamart).
Experiência com integração de APIs externas ou ingestão de dados não estruturados.
Conhecimento em conceitos e ferramentas de Lakehouse (Delta Lake, Databricks, Cloudera).
Experiência com Spark, Flink ou frameworks de processamento distribuído.
Experiência no setor de serviços financeiros ou em projetos relacionados a crédito e risco.
Conhecimento em ferramentas de BI e Data Apps (Streamlit, Tableau, Qlik).
Trabalho remoto (encontros ocasionais na sede em São José dos Campos/SP).
Remuneração compatível (PJ).
Benefício flexível via cartão Swile.
Wellhub (antigo Gympass).
Convênio médico Porto Saúde.
Convênio odontológico Uniodonto.

#J-18808-Ljbffr

Se candidatar
Criar um alerta
Alerta ativado
Salva
Salvar
Vagas parecidas
Emprego Sinop
Emprego Mato Grosso
Emprego Centro-Oeste
Página principal > Emprego > Engenheiro De Dados Gcp (Dbt E Etl) Sr

Jobijoba Brasil

  • Dicas de emprego

Encontre vagas

  • Vagas de emprego por cargo
  • Pesquisa de vagas de emprego por área
  • Empregos por empresas
  • Empregos por localização

Contato / Parceria

  • Entre em contato
  • Publique suas ofertas no site Jobijoba

Menções legais - Menções legais e termos de uso - Política de dados - Gerir os meus cookies - Acessibilidade: Não conforme

© 2026 Jobijoba Brasil - Todos os direitos reservados

Se candidatar
Criar um alerta
Alerta ativado
Salva
Salvar