Engenheiro de Dados Remoto – Minsait
Na Minsait acreditamos na tecnologia como força para transformar realidades e gerar impacto positivo. Desenvolvemos soluções que conectam inovação, eficiência e progresso em setores essenciais como administração pública, telecomunicações & mídia, energia & utilities, indústria & consumo, saúde e finanças.
Aqui, você encontra um ambiente que valoriza a autonomia, a colaboração e o crescimento contínuo, com projetos desafiadores e oportunidades reais de desenvolvimento.
Nosso jeito de ser
Inovamos com propósito
Crescemos com responsabilidade
Valorizamos a diversidade e quem transforma
Inovação, conexão, confiança e antecipação de futuro
Se você busca desafios com significado, a Minsait é o seu lugar.
Responsabilidades e atribuições
Expertise em arquitetura AWS, Infraestrutura como Código (Terraform ou CloudFormation preferencial), Pipelines CI/CD, e Design de observabilidade e monitoramento.
Ajuste de desempenho e planejamento de capacidade.
Automação de tarefas operacionais, análise de tendências de incidentes e estratégias para redução do MTTR.
Metodologia de análise de causa raiz.
Melhores práticas de DevOps e SRE.
Definir padrões técnicos e boas práticas para o time.
Visão de Negócio: entender a necessidade dos stakeholders e traduzi‑la em soluções escaláveis.
Comunicar de forma clara conceitos complexos a perfis não técnicos.
Documentar através de storytelling com dados.
Resiliência, Ownership e responsabilidade pelo ciclo de vida do dado, desde a ingestão até o consumo.
Resolver problemas em cenários de alta pressão.
Colaborar em squads multidisciplinares (analistas, cientistas de dados, engenheiros de software).
Praticar cultura DevOps Agile (Scrum ou Kanban).
Liderança Técnica e alta capacidade de autocontrole.
Benefícios
Modelo de contratação CLT.
Plano de Saúde subsidiado pela empresa para o titular.
Opção de inclusão de dependentes no Plano de Saúde com desconto em folha de pagamento.
Assistência Odontológica (opcional).
Vale Refeição no cartão Flash Benefícios.
POP – Programa de Orientação Pessoal, oferecendo suporte emocional e aconselhamento nas áreas psicológica, jurídica, financeira, social e pet sem custo para titular e dependentes legais.
Plataforma de Saúde Wellhub-Gympass (acesso a mais de 700 academias em todo o Brasil com planos descontado em folha de pagamento).
Convênio com o SESC para titular e dependentes.
Convênios com instituições de ensino (graduação e pós‑graduação) e escola de idiomas, com descontos.
Seguro de vida em grupo.
Nosso compromisso com a diversidade é um elemento-chave da nossa cultura: Igualdade de oportunidades, respeito pelas pessoas e não discriminação são princípios de atuação para todos os profissionais da Minsait. Integramos o Bloomberg Gender‑Equality Index (GEI) 2021 em termos de diversidade e igualdade de gênero.
Senior Data Engineer – Volpi
Buscamos um Senior Data Engineer para liderar a construção da engenharia de dados da Volpi desde a base. Hoje, nossos dados estão distribuídos em múltiplas fontes, com diferentes níveis de maturidade. Seu papel será estruturar essa fundação: definir a arquitetura, organizar os dados, criar pipelines confiáveis e habilitar a criação de produtos de dados que apoiem decisões críticas de negócio.
Responsabilidades
Desenhar, implementar e evoluir a arquitetura de dados da Volpi, com foco em um modelo de lakehouse na AWS.
Estruturar pipelines de ingestão, transformação e consumo de dados (batch e, futuramente, streaming).
Trabalhar com dados sensíveis de crédito e pessoas, seguindo padrões rigorosos de segurança, governança e compliance.
Lidar com dados distribuídos em múltiplos silos, conectando fontes e criando visões mais maduras para o negócio.
Atender demandas estratégicas de diferentes áreas (crédito, operações, produto, engenharia).
Organizar e evoluir o data lake existente (já temos estrutura inicial em AWS, Athena e S3).
Criar a base para produtos de dados futuros, incluindo análises avançadas de crédito e soluções orientadas a dados.
Atuar de forma full‑cycle, da concepção técnica à implementação, operação e evolução em produção.
O que esperamos de você
Experiência sólida como Data Engineer, com forte mentalidade de engenharia (Data Engineer aqui é dev).
Domínio de Python e SQL para construção de pipelines e soluções em produção.
Experiência prática com AWS, sobretudo S3, Athena e IAM.
Conhecimento e uso de Infraestrutura como Código (IaC).
Vivência em pipelines de dados em produção, lidando com volumes relevantes e dados sensíveis.
Forte preocupação com segurança da informação, padrões de projeto e boas práticas de engenharia.
Experiência em ambientes de startup, lidando com pouco legado e muita construção do zero.
Autonomia para tomar decisões técnicas e conduzir projetos end‑to‑end.
Capacidade de traduzir necessidades de negócio em soluções de dados escaláveis.
Comunicação clara e estruturada, especialmente em ambientes assíncronos.
Diferenciais
Experiência com arquiteturas de dados modernas, como lakehouse.
Uso de ferramentas de orquestração e transformação de dados (ex.: Airflow, dbt ou similares).
Atuação em domínios complexos e regulados, como financeiro, crédito ou seguros.
Vivência na construção e estruturação de plataformas ou áreas de dados desde o início.
Modelo remoto prioritário.
Plano de saúde Alice (100% pago para titular e dependentes).
R$1.000/ano de auxílio educação.
30 dias de descanso remunerado + 10 dias de recesso de fim de ano.
Day off no aniversário.
TotalPass (incluindo TotalMind).
Acesso ao Wework.
Encontros presenciais para troca e conexão com a nossa Tribo.
Stefanini – Engenheiro de Dados
Responsabilidades e atribuições
Definir e estruturar a arquitetura de dados da organização.
Desenvolver e orientar a construção de pipelines de dados (batch e streaming).
Garantir a qualidade, integridade e governança dos dados.
Apoiar a implementação de soluções voltadas para inteligência artificial.
Atuar em conjunto com times técnicos e de negócio.
Otimizar o uso de recursos em ambientes de nuvem.
Requisitos e qualificações
Superior completo nas áreas de Tecnologia.
Conhecimento com arquitetura de dados e engenharia de dados.
Experiência com Lake House e Data Mesh.
Domínio de Python e SQL (nível intermediário/avançado – perfil próximo a DBA).
Informações adicionais
Vale-alimentação ou vale-refeição.
Desconto em cursos, universidades e instituições de idiomas.
Academia Stefanini – plataforma com cursos online, gratuitos, atualizados e com certificado.
Clube de vantagens para consultas e exames.
Assistência médica.
Engenheiro de Dados Júnior – Plataforma Databricks
Responsabilidades
Apoiar a construção e sustentação de pipelines de dados no Databricks, utilizando notebooks, jobs e pipelines.
Garantir a entrega contínua das camadas Bronze, Silver e Gold dentro da arquitetura de dados.
Ingerir, transformar e disponibilizar dados para consumo analítico.
Criar e manter tabelas Delta e views para suporte a dashboards e análises.
Atuar com compartilhamento e consumo de dados via Delta Sharing.
Apoiar a governança de dados utilizando Unity Catalog, gerenciando catálogos, schemas e permissões.
Monitorar execuções de pipelines, identificar falhas e realizar troubleshooting.
Corrigir causas‑raiz e propor melhorias de confiabilidade e performance.
Implementar e/ou apoiar validações de qualidade de dados.
Documentar pipelines, regras de negócio e a linhagem básica dos dados.
Colaborar com analistas, times de BI e áreas de negócio para entendimento de requisitos e evolução das entregas.
Para esta vaga, é essencial
Conhecimento sólido de SQL (joins, agregações, CTEs, window functions e modelagem básica para analytics).
Conhecimento prático de Python para dados (manipulação, leitura/escrita e organização de código em notebooks).
Noções de Apache Spark/Databricks (DataFrames, particionamento, leitura/escrita em Delta e execução distribuída em alto nível).
Experiência inicial com Databricks (uso de notebooks, jobs, clusters e boas práticas básicas).
Familiaridade com pipelines de dados e arquitetura Medallion (Bronze/Silver/Gold), mesmo em contexto acadêmico ou projetos.
Conhecimento em Git e controle de versão (branch, PR e resolução simples de conflitos).
Capacidade de investigar problemas (logs, métricas simples, reprocessamentos) e comunicar status com clareza.
Disponibilidade para atuar com sustentação de rotinas, acompanhando falhas e correções dentro do horário acordado.
Você pode se destacar se
Tiver experiência com Azure Data Factory (pipelines, triggers, integrações, parâmetros, monitoramento).
Possuir conhecimento prático de Unity Catalog (permissões, data access, boas práticas de governança).
Tiver vivência com Delta Sharing (publicação/consumo e cuidados com segurança e contratos de dados).
Possuir experiência com orquestração e automação (Databricks Workflows, CI/CD, Databricks Repos, Azure DevOps/GitHub Actions).
Tiver conhecimento em Data Quality e Observabilidade (ex.: Great Expectations/Deequ, métricas, SLIs/SLOs, alertas).
Possuir experiência em otimização no Databricks/Delta (partitioning, Z‑ORDER, OPTIMIZE/VACUUM, caching, controle de custos).
Tiver noções de modelagem dimensional e consumo por ferramentas de BI (camadas semânticas, performance para dashboards).
Possuir conhecimento de segurança e boas práticas (RBAC, segregação de ambientes, secrets, princípios de menor privilégio).
Curtiu a oportunidade? Então, vem repensar o futuro com a gente!
#J-18808-Ljbffr