Minsait – Engenheiro de Dados
Na Minsait acreditamos na tecnologia como força para transformar realidades e gerar impacto positivo. Desenvolvemos soluções que conectam inovação, eficiência e progresso em setores essenciais como administração pública, telecomunicações & mídia, energia & utilities, indústria & consumo, saúde e finanças.
Responsabilidades
Arquitetar, implementar e evoluir a infraestrutura AWS, incluindo serviços de EC2, S3, Athena, IAM e CloudFormation/Terraform.
Desenvolver pipelines CI/CD, automação de tarefas operacionais e monitoramento de observabilidade.
Realizar ajustes de desempenho, planejamento de capacidade e análises de tendências de incidentes para reduzir MTTR.
Definir padrões técnicos, boas práticas de DevOps e SRE, e liderar a documentação e storytelling com dados.
Gerenciar o ciclo de vida do dado, desde a ingestão até o consumo, garantindo resiliência e ownership.
Trabalhar em squads multidisciplinares, garantindo colaboração com analistas, cientistas de dados e engenheiros de software.
Benefícios
Modelo de contratação CLT.
Plano de Saúde subsidiado; inclusão de dependentes.
Assistência Odontológica opcional.
Vale Refeição no cartão Flash Benefícios.
Programa de Orientação Pessoal (POP).
Plataforma de Saúde Wellhub-Gympass; convênio SESC.
Convênios com instituições de ensino e escolas de idiomas.
Seguro de vida em grupo.
Nosso Compromisso com a Diversidade
Igualdade de oportunidades, respeito pelas pessoas e não discriminação são princípios de atuação para todos os profissionais da Minsait. Integramos o Bloomberg Gender-Equality Index (GEI) 2021 em termos de diversidade e igualdade de gênero.
Volpi – Senior Data Engineer
Responsabilidades
Desenhar, implementar e evoluir a arquitetura de dados da Volpi, focada em lakehouse na AWS.
Estruturar pipelines de ingestão, transformação e consumo (batch e streaming).
Lidar com dados sensíveis de crédito e pessoas, seguindo rigorosos padrões de segurança, governança e compliance.
Conectar múltiplos silos de dados, criando visões maduras para o negócio.
Atender demandas estratégicas das áreas de crédito, operações, produto e engenharia.
Organizar e evoluir o data lake existente (S3, Athena). Criar a base para produtos de dados futuros.
Gerenciar o ciclo completo, da concepção técnica à operação em produção.
Qualificações
Experiência sólida como Data Engineer.
Domínio de Python e SQL.
Experiência com AWS (S3, Athena, IAM).
Uso de IaC (Terraform ou CloudFormation).
Experiência com pipelines de produção, volumes relevantes e dados sensíveis.
Conscientização sobre segurança da informação, boas práticas de engenharia.
Experiência em startups, construindo de zero.
Autonomia técnica e capacidade de traduzir requisitos de negócio em soluções escaláveis.
Habilidades de comunicação clara, especialmente em ambientes assíncronos.
Diferenciais
Arquiteturas lakehouse modernas.
Ferramentas de orquestração (Airflow, dbt).
Domínio de domínios regulados (financeiro, crédito).
Experiência em construção de plataformas de dados.
Remoto prioritário.
Plano de saúde Alice (100 % pago).
Apoio educação.
Benefícios como TotalPass, Wework e encontros presenciais.
Stefanini – Engenheiro de Dados
Responsabilidades
Definir e estruturar a arquitetura de dados da organização.
Desenvolver e supervisionar pipelines batch e streaming.
Garantir qualidade, integridade e governança dos dados.
Apoiar soluções de inteligência artificial.
Colaborar com equipes técnicas e de negócios.
Otimizar uso de recursos em ambientes cloud.
Requisitos
Superior completo em Tecnologia.
Conhecimento em arquitetura e engenharia de dados.
Experiência com Lake House e Data Mesh.
Domínio de Python e SQL (intermediário/avançado).
Benefícios
Vale-alimentação ou refeição.
Descontos em cursos e universidades.
Academia com cursos online e certificados.
Clube de vantagens para consultas e exames.
Assistência médica.
Framework Digital – Engenheiro de Dados Júnior
Responsabilidades
Apoiar a construção e sustentação de pipelines no Databricks (notebooks, jobs, pipelines).
Garantir entrega contínua das camadas Bronze, Silver e Gold.
Ingerir, transformar e disponibilizar dados para consumo analítico.
Criar e manter tabelas Delta e views.
Implementar governança de dados com Unity Catalog.
Monitorar pipelines, identificar falhas, realizar troubleshooting.
Limpar causas-raiz e propor melhorias de performance.
Documentar pipelines e regras de negócio.
Colaborar com analistas e BI para entender requisitos.
Qualificações
SQL avançado (joins, agregações, CTEs, windows).
Python para dados (manipulação, notebooks).
Conhecimento de Apache Spark/Databricks (DataFrames, Delta).
Experiência inicial com Databricks (notebooks, clusters).
Familiaridade com pipelines Medallion (Bronze/Silver/Gold).
Git, controle de versão.
Comunicação clara e capacidade de investigar problemas.
Disponibilidade para atuar com sustentação de rotinas.
Diferenciais
Azure Data Factory (pipelines, triggers, monitoramento).
Unity Catalog (permissões, governança).
Delta Sharing (publicação/consumo).
Orquestração e automação (Databricks Workflows, CI/CD, GitHub Actions).
Data Quality e Observabilidade (Great Expectations, SLIs/SLOs).
Otimização no Databricks (partitioning, Z-ORDER, OPTIMIZE/VACUUM).
Modelagem dimensional e consumo por BI.
Segurança e boas práticas (RBAC, segregação, secrets).
Curtiu a oportunidade?
Então, venha repensar o futuro com a gente!
#J-18808-Ljbffr