Engenheiro de Dados GCP (DBT e ETL) SR
Oportunidade: Engenheiro de Dados GCP (DBT e ETL) SR – responsável por projetar e implementar pipelines de dados robustos, utilizando DBT e tecnologias do ecossistema Google Cloud (BigQuery, Cloud Storage, LookerML, etc.). Além disso, atuará com ferramentas ETL, garantindo extração, transformação e carga de dados de forma eficiente.
Responsabilidades:
Desenvolver e orquestrar pipelines de dados utilizando DBT, incluindo otimização de macros e templates.
Projetar e otimizar estruturas de dados no Google Cloud (BigQuery), garantindo eficiência e desempenho em consultas SQL.
Implementar e manter processos de ETL, assegurando qualidade e governança dos dados migrados.
Utilizar Python para criar scripts de automação e transformação de dados.
Documentar processos e garantir governança de dados.
Qualificações:
Experiência sólida em engenharia de dados em GCP.
Proficiência em DBT e BigQuery.
Conhecimento de Python e SQL.
Habilidade em design de arquiteturas escaláveis e seguras.
Boa comunicação e capacidade de trabalhar em equipe.
Benefícios:
Modelo de contratação CLT.
Plano de Saúde subsidiado pela empresa.
Plano de Saúde com opção de inclusão de dependentes.
Assistência Odontológica (opcional).
Vale Refeição no cartão Flash Benefícios.
Programa de Orientação Pessoal (POP) com apoio emocional, jurídico, financeiro e social.
Plataforma de Saúde Wellhub-Gympass acessível em planos descontados.
Convênio com SESC e convênios para instituições de ensino e idiomas.
Seguro de vida em grupo.
Nosso compromisso com a diversidade: Igualdade de oportunidades, respeito e não discriminação são princípios de atuação em todas as áreas da Minsait. Integramos o Bloomberg Gender-Equality Index (GEI) 2021 em termos de diversidade e igualdade de gênero.
Senior Data Engineer – Volpi
Descrição: Liderar a construção da engenharia de dados da Volpi desde a base, estruturando a fundação: definição de arquitetura, organização dos dados, criação de pipelines confiáveis e habilitação de produtos de dados que apoiem decisões críticas.
Responsabilidades:
Desenhar, implementar e evoluir a arquitetura de dados da Volpi, focando modelagem de lakehouse na AWS.
Estruturar pipelines de ingestão, transformação e consumo de dados (batch e streaming).
Gerenciar dados sensíveis de crédito e pessoas, seguindo padrões de segurança, governança e compliance.
Lidar com dados distribuídos em múltiplos silos e criar visões maduras para o negócio.
Atender demandas estratégicas de diferentes áreas (crédito, operações, produto, engenharia).
Organizar e evoluir o data lake existente (utilizando S3, Athena).
Criar base para produtos de dados futuros, incluindo análises avançadas de crédito.
Atuar em full‑cycle: concepção técnica, implementação, operação e evolução em produção.
Qualificações:
Experiência sólida como Data Engineer, com forte mentalidade de engenharia.
Domínio de Python e SQL para construção de pipelines.
Experiência prática com AWS (S3, Athena, IAM).
Conhecimento em Infraestrutura como Código (IaC).
Vivência com dados sensíveis e ambientes regulados.
Autonomia para tomar decisões técnicas e conduzir projetos end‑to‑end.
Boa comunicação e capacidade de traduzir necessidades de negócio em soluções escaláveis.
Diferenciais:
Experiência com arquiteturas lakehouse.
Uso de ferramentas de orquestração e transformação (Airflow, dbt).
Trabalho em domínios financeiros ou de crédito.
Construção de plataformas desde o início.
Benefícios:
Modelo remoto prioritário.
Plano de saúde Alice (100% pago para titular e dependentes).
Auxílio educação: R$1.000/ano.
Acesso às vantagens TotalPass (TotalMind, Wework, etc.).
Folga no aniversário.
30 dias de descanso remunerado + 10 dias de recesso de fim de ano.
Engenheiro de Dados Júnior – Databricks
Descrição: Atuar como apoio à construção e sustentação de pipelines de dados robustos e eficientes no ambiente Databricks, garantindo entrega contínua de dados transformados e governados, desde a ingestão até a disponibilização para consumo analítico.
Responsabilidades:
Construir e sustentar pipelines no Databricks usando notebooks, jobs e pipelines.
Entregar camadas Bronze, Silver e Gold dentro da arquitetura de dados.
Ingerir, transformar e disponibilizar dados para consumo analítico.
Criar e manter tabelas Delta e views para dashboards e análises.
Gerenciar compartilhamento e consumo via Delta Sharing.
Utilizar Unity Catalog para governança de dados (catálogos, schemas, permissões).
Monitorar execuções, identificar falhas e executar troubleshooting.
Propor melhorias de confiabilidade e performance.
Implementar validações de qualidade de dados.
Documentar pipelines, regras de negócio e linhagem básica dos dados.
Colaborar com analistas, BI e áreas de negócio para evolução de entregas.
Requisitos:
Conhecimento sólido de SQL (joins, agregações, CTEs, window functions).
Experiência prática em Python para dados (manipulação, leitura/escrita, notebooks).
Noções de Apache Spark/Databricks (DataFrames, particionamento, Delta).
Experiência inicial com Databricks (notebooks, jobs, clusters).
Familiaridade com pipelines de dados e arquitetura Medallion.
Conhecimento em Git e controle de versão.
Capacidade de investigar problemas e comunicar status com clareza.
Disponibilidade para atuar com sustentação de rotinas em horário acordado.
Alguns pontos que podem diferenciar você:
Experiência com Azure Data Factory.
Conhecimento prático de Unity Catalog.
Vivência com Delta Sharing.
Conhecimento em ouquestração e automação (Databricks Workflows, CI/CD, DevOps).
Experiência com Data Quality e Observabilidade.
Otimização de custos e performance no Databricks/Delta.
Modelagem dimensional e consumo por BI.
Segurança e melhores práticas (RBAC, segregação, secrets).
Benefícios: Vale alimentação ou vale-refeição, desconto em cursos, universidades e idiomas, plataforma de cursos online, clube de vantagens, assistência médica.
Observação legal: Todos os candidatos são considerados igualmente, sem discriminação por raça, gênero, orientação sexual, deficiência ou qualquer outra característica protegida pela lei.
#J-18808-Ljbffr