Engenheiro de Dados GCP (DBT e ETL) SR – Minsait
Descrição do Cargo: Responsável por projetar e implementar pipelines de dados robustos, utilizando DBT e tecnologias do ecossistema Google Cloud (BigQuery, Cloud Storage, LookerML, etc.). Atua com ferramentas ETL, garantindo extração, transformação e carga de dados de forma eficiente, assegurando escalabilidade, segurança e otimização de processos.
Desenvolver e orquestrar pipelines de dados com DBT, otimizando macros e templates.
Projetar e otimizar estruturas de dados no BigQuery, garantindo eficiência e desempenho em consultas SQL.
Implementar e manter processos de ETL, garantindo qualidade e governança dos dados migrados.
Utilizar Python para desenvolver scripts de automação e transformação de dados.
Experiência sólida em engenharia de dados e forte mentalidade de engenharia.
Domínio avançado de Python e SQL.
Experiência em GCP, especialmente BigQuery, Cloud Storage, e IAM.
Conhecimento de infraestrutura como código (Terraform ou CloudFormation).
Experiência em pipelines de dados em produção, lidando com volumes relevantes e dados sensíveis.
Forte entendimento de segurança da informação, governança e compliance.
Modelo CLT.
Plano de Saúde subsidiado, com opção de inclusão de dependentes.
Assistência Odontológica opcional.
Vale Refeição no cartão Flash Benefícios.
Programa de Orientação Pessoal (POP) – terapia e aconselhamento confidencial.
Plataforma de Saúde Wellhub‑Gympass.
Convênio com SESC, instituições de ensino, e seguro de vida em grupo.
Compromisso com a diversidade: Igualdade de oportunidades, respeito às pessoas e não discriminação. Integração do Bloomberg Gender‑Equality Index (GEI) 2021.
Senior Data Engineer – Volpi (AWS Lakehouse)
Descrição do Cargo: Liderar a construção da engenharia de dados, definindo arquitetura e organizando dados para análises críticas de negócio.
Desenhar, implementar e evoluir a arquitetura de dados da Volpi, com foco em lakehouse na AWS.
Estruturar pipelines de ingestão, transformação e consumo de dados (batch e streaming).
Lidar com dados sensíveis, garantindo segurança, governança e compliance.
Conectar múltiplas fontes, criando visões maduras para negócio.
Atender demandas estratégicas de crédito, operações, produto e engenharia.
Organizar e evoluir o data lake existente (S3, Athena).
Construir base para produtos futuros, como análises avançadas de crédito.
Atuar full‑cycle: concepção técnica ao deploy em produção.
Experiência sólida em Data Engineering, gestão de volumes massivos e alta disponibilidade.
Domínio de Python e SQL avançado.
Experiência prática com pipelines batch e near real‑time.
Conhecimento em mensageria (Pub/Sub, Kafka) e Airflow.
Conhecimento em GCP, preferencialmente.
Versionamento de código com Git/GitHub.
Infraestrutura como código (Terraform).
Boas práticas de modelagem de dados, partições e otimização de queries.
Habilidades de comunicação e colaboração.
Proatividade e foco em soluções de dados escaláveis.
Remuneração PJ compatível.
Benefícios flexíveis via cartão Swile.
Wellhub (antigo Gympass).
Convênio médico Porto Saúde.
Convênio odontológico Uniodonto.
Compromisso com a diversidade: Inclusão de mulheres, pessoas pretas, pardas, indígenas, LGBTQIAPN+ e pessoas com deficiência.
Engenheiro de Dados Junior – Databricks
Descrição do Cargo: Apoiar a construção e sustentação de pipelines de dados no Databricks, garantindo entrega contínua e governança.
Apoiar construção de pipelines no Databricks (notebooks, jobs, clusters).
Garantir entrega das camadas Bronze, Silver e Gold.
Ingerir, transformar e disponibilizar dados para consumo analítico.
Criar e manter tabelas Delta e views para dashboards.
Atuar com Delta Sharing e Unity Catalog.
Monitorar execuções, identificar falhas e realizar troubleshooting.
Implementar validações de qualidade de dados.
Documentar pipelines e regras de negócio.
Colaborar com analistas e times de BI.
Conhecimento sólido de SQL (joins, agregações, CTEs, window functions).
Experiência prática de Python para dados.
Noções de Apache Spark/Databricks (DataFrames, Delta, execução distribuída).
Experiência inicial com Databricks (notebooks, jobs).
Familiaridade com pipelines de dados e arquitetura Medallion (Bronze/Silver/Gold).
Conhecimento em Git e controle de versão.
Capacidade de investigar problemas e comunicar status.
Disponibilidade para atuar em sustentação de rotinas.
Modelo remoto prioritário.
Plano de Saúde Alice (100% pago).
Auxílio educação R$1.000/ano.
30 dias de descanso remunerado + 10 dias de recesso de fim de ano.
Day off no aniversário.
Benefício TotalPass (incluindo TotalMind).
Acesso ao Wework e encontros presenciais com Tribo.
Observação: Se houver solicitação de pagamento pela candidatura, recuse e denuncie.
Engenheiro de Dados – TerraMagna (Agronegócio)
Descrição do Cargo: Contribuir para a criação e evolução de produtos de crédito e risco, garantindo arquitetura alinhada ao negócio.
Desenvolver pipelines robustos de ingestão (batch, near real‑time, real‑time).
Assegurar que arquitetura de dados esteja alinhada aos objetivos de negócio.
Trabalhar com equipes multifuncionais para integrar dados nos produtos.
Identificar oportunidades para aquisição de novos dados.
Facilitar democratização dos dados em toda a empresa.
Manter-se atualizado com tendências e melhores práticas.
5+ anos em engenharia de dados ou desenvolvimento de software, gestão de volumes massivos.
Domínio de Python e SQL avançado.
Experiência prática em pipelines batch e near real‑time.
Experiência com mensageria e processamento de eventos (Pub/Sub, Kafka).
Experiência com Airflow ou similar.
Experiência com dbt ou similar.
Preferência por GCP.
Versionamento de código com Git/GitHub.
Infraestrutura como código (Terraform).
Boas práticas de modelagem de dados.
Comunicação e colaboração em times técnicos e de negócio.
Proatividade e foco em soluções de dados.
Interesse em evoluir tecnicamente em ambiente dinâmico de fintech.
Remuneração PJ compatível.
Benefício flexível via cartão Swile.
Wellhub (antigo Gympass).
Convênio médico Porto Saúde.
Convênio odontológico Uniodonto.
Compromisso com a diversidade: Inclusão de mulheres, pessoas pretas, pardas, indígenas, LGBTQIAPN+ e pessoas com deficiência.
Engenheiro de Dados – HR (LATAM) – Retrabalho de RH
Descrição do Cargo: Liderar design e implementação do HR Data Lake/Lakehouse para América Latina, garantindo governança, segurança e qualidade de dados.
Liderar design e implementação do HR Data Lake/Lakehouse na LATAM.
Construir pipelines ETL/ELT robustos e escaláveis.
Garantir governança e segurança (LGPD, padrões globais de privacidade).
Colaborar com times globais e regionais de Engenharia e Ciência de Dados.
Estabelecer controles de qualidade e observabilidade de dados.
Experiência sólida como Engenheiro de Dados.
Domínio avançado de Python e SQL.
Expertise em Databricks e arquitetura de dados (Lakehouse).
Experiência prática em Nuvem, preferência Azure.
Inglês avançado.
Conhecimento em frameworks de qualidade de dados e governança.
Modelo de Contrato: Terceirizado.
Horário: segunda a sexta, das 08h às 18h – 100% remoto.
Remuneração compatível com o mercado.
Benefícios: Assistência Médica, Vale Refeição, Vale Transporte e Seguro de Vida.
Observação: Se houver solicitação de pagamento pela candidatura, recuse e denuncie.
Compromisso com a diversidade: Igualdade de oportunidades.
#J-18808-Ljbffr