Engenheiro de Dados Sênior – Stefanini
Na Stefanini, acreditamos no poder da colaboração. Co-criamos soluções inovadoras em parceria com nossos clientes, combinando tecnologia de ponta, inteligência artificial e a criatividade humana. Estamos na vanguarda da resolução de problemas de negócios, proporcionando impacto real em escala global.
Ao se juntar à Stefanini, você se torna parte de uma jornada global de transformação. Estamos empenhados em criar impacto positivo não apenas nos negócios, mas também na vida de nossos colaboradores. Se você procura uma oportunidade de crescimento profissional em uma empresa que valoriza inovação, respeito, autonomia e parceria, você encontra aqui!
Junte-se a nós e seja parte da mudança!
Responsabilidades e atribuições
Definir e estruturar a arquitetura de dados da organização;
Desenvolver e orientar a construção de pipelines de dados (batch e streaming);
Garantir a qualidade, integridade e governança dos dados;
Apoiar a implementação de soluções voltadas para inteligência artificial;
Atuar em conjunto com times técnicos e de negócio;
Otimizar o uso de recursos em ambientes de nuvem.
Requisitos e qualificações
Superior completo nas áreas de Tecnologia;
Conhecimento com arquitetura de dados e engenharia de dados;
Conhecimento em Lake House e Data Mesh;
Vivência com ferramentas: Domínio de Python e SQL (nível intermediário/avançado – perfil próximo a DBA).
Informações adicionais
Vale‑alimentação ou vale‑refeição;
Desconto em cursos, universidades e instituições de idiomas;
Academia Stefanini – plataforma com cursos on‑line, gratuitos, atualizados e com certificado;
Clube de vantagens para consultas e exames;
Assistência médica.
Senior Data Engineer – Volpi
Somos uma fintech em crescimento acelerado que está protagonizando a evolução do financiamento imobiliário. Transformamos processos tradicionalmente burocráticos, caros e ineficientes em experiências inteligentes, simples e digitais. Se você acredita que tecnologia pode mudar a vida das pessoas - e quer fazer parte de uma equipe que vive isso na prática - vem com a gente!
Responsabilidades e atribuições
Desenhar, implementar e evoluir a arquitetura de dados da Volpi, com foco em um modelo lakehouse na AWS;
Estruturar pipelines de ingestão, transformação e consumo de dados (batch e, futuramente, streaming);
Trabalhar com dados sensíveis de crédito e pessoas, seguindo padrões rigorosos de segurança, governança e compliance;
Lidar com dados distribuídos em múltiplos silos, conectando fontes e criando visões mais maduras para o negócio;
Atender demandas estratégicas de diferentes áreas (crédito, operações, produto, engenharia);
Organizar e evoluir o data lake existente (já temos estrutura inicial em AWS, Athena e S3);
Criar a base para produtos de dados futuros, incluindo análises avançadas de crédito e soluções orientadas a dados;
Atuar de forma full‑cycle, da concepção técnica à implementação, operação e evolução em produção.
O que esperamos de você
Experiência sólida como Data Engineer, com forte mentalidade de engenharia (Data Engineer aqui é dev);
Domínio de Python e SQL para construção de pipelines e soluções de dados em produção;
Experiência prática com AWS, especialmente serviços como S3, Athena e IAM;
Conhecimento e uso de Infraestrutura como Código (IaC);
Vivência com pipelines de dados em produção, lidando com volumes relevantes e dados sensíveis;
Forte preocupação com a segurança da informação, padrões de projeto e boas práticas de engenharia;
Experiência em ambientes de startup, lidando com pouco legado e muita construção do zero;
Autonomia para tomar decisões técnicas e conduzir projetos end‑to‑end;
Capacidade de traduzir necessidades de negócio em soluções de dados escaláveis;
Comunicação clara e estruturada, especialmente em ambientes assíncronos.
Diferenciais
Experiência com arquiteturas de dados modernas, como lakehouse;
Uso de ferramentas de orquestração e transformação de dados (ex: Airflow, dbt ou similares);
Atuação em domínios complexos e regulados, como financeiro, crédito ou seguros;
Vivência na construção e estruturação de plataformas ou áreas de dados desde o início.
Modelo remoto prioritário;
Plano de saúde Alice (100% pago para titular e dependentes);
R$1.000/ano de auxílio educação;
30 dias de descanso remunerado + 10 dias de recesso de fim de ano; Day off no aniversário; TotalPass (incluindo TotalMind); Acesso ao Wework; Encontros presenciais para troca e conexão com a nossa Tribo.
Engenheiro de Dados – AI em Logística
Acreditamos que o SUCESSO do cliente é o nosso SUCESSO! E para isso, estamos à procura de pessoas inquietas, fanáticas por resultados e amantes de tecnologia, para apoiar na implementação de Inteligência artificial nas soluções mobile e em nuvem para a área de Logística.
Responsabilidades e atribuições
Estruturar e preparar pipelines de dados para alimentar soluções de Inteligência Artificial;
Atuar no treinamento, avaliação e evolução de modelos de Machine Learning integrados aos produtos de Logística;
Garantir a rastreabilidade e governança dos dados, seguindo os padrões corporativos de qualidade;
Implementar melhorias contínuas em modelos já em produção para garantir a aderência ao negócio.
Requisitos e Qualificações
Formação superior completa ou cursando em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas;
Prática em estruturação de dados, preparação de datasets e construção de pipelines;
Experiência com fluxos de Machine Learning (treinamento, validação e métricas de performance);
Vivência em ambientes Cloud (AWS, Azure ou GCP);
Conhecimento em arquiteturas de Data Warehouse e Data Lake;
Noções de MLOps, incluindo versionamento de modelos e automação.
Diferenciais
Proficiência em Python e SQL (essenciais para a manipulação de dados na nossa stack);
Experiência com GCP (BigQuery);
Conhecimento em IA Generativa e implementação de LLMs;
Prática com streaming de dados e inferência em tempo real;
Experiência prévia em sistemas logísticos ou operacionais.
Engenheiro de Dados GCP (DBT e ETL) Sênior
Oportunidade: Engenheiro de Dados GCP (DBT e ETL) SR.
Estamos buscando um Engenheiro de Dados Sênior para atuar em um projeto estratégico de Migração de Dados OnPrem para Google Cloud Platform (GCP) no setor financeiro. Esse profissional será responsável pela construção, otimização e orquestração de pipelines de dados, garantindo escalabilidade, eficiência e governança durante o processo de migração.
Principais Responsabilidades
Desenvolver os pipelines de ingestão, transforme e armazenamento de dados; usar o modelo de Lakehouse na AWS enquanto migrar.
Projetar e otimizar a arquitetura de dados no Google Cloud (BigQuery).
Implementar e manter processos de ETL com DBT.
Usar Python para desenvolvimento de scripts de automação e transformação.
Engenheiro de Dados Sênior – Oracle Cloud (OCI)
Oportunidade: Engenheiro de Dados Sênior - Oracle Cloud (OCI).
Responsabilidades
Desenvolver, manter e otimizar pipelines de dados em ambientes Oracle Cloud, com foco em Oracle Cloud Data Integration e Oracle Autonomous Data Warehouse.
Construir e gerenciar integrações de dados via APIs REST e ingestão de arquivos (CSV, JSON, XML, Parquet).
Extrair e harmonizar dados do Oracle Fusion Analytics Warehouse (FAW).
Modelar e estruturar dados nas camadas analíticas para BI e Power BI.
Trabalhar com processos de ingestão, transformação e disponibilização de dados (ETL/ELT).
Planejar e manter o Catálogo de Dados no OCI.
Garantir práticas de governança, qualidade e segurança de dados.
Atuar em parceria com equipes de arquitetura, analytics e negócio.
Requisitos Necessários
Experiência sólida como Engenheiro(a) de Dados em projetos Oracle Cloud Infrastructure (OCI).
Experiência com OCI Data Integration ou equivalente.
Conhecimento em Oracle Autonomous Data Warehouse (ADW) e Oracle Object Storage.
Experiência com APIs REST e múltiplas fontes de dados heterogêneas.
Experiência avançada em SQL e modelagem de dados.
Vivência com arquiteturas modernas de Data Lake em cloud.
Vivência com ferramentas de ETL/ELT e integração de dados.
Experiência com Python ou similar.
Diferenciais
Experiência com Oracle Fusion Analytics Warehouse (FAW).
Vivência com Oracle Data Catalog.
Experiência com Oracle Integration Cloud (OIC).
Familiaridade com Power BI.
Engenheiro de Dados Sênior – Databricks & Power BI
Modelo de contratação: PJ (sem benefícios); Trabalho: Remoto; Dedicação: Fulltime.
Responsabilidades
Desenvolver e otimizar pipelines escaláveis de ETL/ELT em Databricks.
Orquestrar processos em Apache Airflow.
Atuar como referência técnica em Power BI.
Estruturar e otimizar o Data Lake / Data Warehouse em Azure.
Elaborar e tunar consultas SQL/Spark SQL em ambientes de cloud.
Traduzir necessidades de negócio em soluções de dados.
Requisitos Obrigatórios (Hard Skills)
Sólida experiência em Databricks (PySpark, Spark SQL, Delta Lake).
Conhecimento no ecossistema Microsoft Azure.
Domínio em Apache Airflow.
Experiência em Power BI (DAX, M).
Proficiência em Python e SQL avançado.
Diferenciais
Experiência prévia com migrações entre nuvens.
Familiaridade com Azure DevOps CI/CD.
Engenheiro de Dados I (Senior) – Azure Fabric
Somos uma multinacional brasileira de tecnologia que impulsiona negócios por meio de soluções digitais, cloud, cibersegurança e tecnologia de ponta.
Responsabilidades e atribuições
Projetar arquiteturas de dados escaláveis em cloud (Azure Fabric, Databricks).
Desenhar pipelines de ingestão em tempo real e batch (Kafka, Event Hubs, Service Bus).
Melhorar e modernizar.
Validar integridade de dados pós‑migração e corrigir discrepâncias.
Otimize queries e processos de grande volume.
Implementar monitoramento e observabilidade.
Documentar arquiteturas com diagramas técnicos.
Coletar mapeamentos DE‑PAR entre sistemas legados e novos.
Trabalhar com stakeholders de negócio.
Requisitos e qualificações
Visão end‑to‑end (ingestão até consumo).
Comunicação clara com áreas técnicas e negócio.
Autonomia e proatividade.
PySpark / Apache Spark (complexa).
SQL avançado.
Modelagem dimensional.
Kafka e streaming em tempo real.
Python para automação.
Outros Diferenciais
Experiência com migração de sistemas legados.
Redução de custos operacionais e FinOps.
Certificações Azure (DP‑203, AZ‑305).
Informações adicionais
Vale Refeição ou Alimentação;
Assistência médica e odontológica;
Convênio Farmácia (descontos em medicamentos);
PAC – Programa de aceleração de carreira;
Reembolso para certificações;
MOBIFLIX – Academia corporativa com cursos presenciais e online.;
Plataforma online de crédito consignado.
Compromisso com Diversidade e Inclusão
Acreditamos que o presente é plural e a inclusão transforma, por isso, todas as pessoas são bem‑vindas em nossas vagas, para promovermos um ambiente de trabalho inclusivo, de respeito, justiça e equidade.
#J-18808-Ljbffr