Somos uma consultoria que une tecnologia, design e estratégia de produtos digitais para solucionar os desafios de grandes empresas brasileiras. Como parte da Framework Digital, ampliamos nosso impacto atuando de ponta a ponta na jornada digital, da concepção à escala.
Nossa missão é gerar valor real por meio de soluções que conectam times, sistemas e pessoas. Acreditamos que a transformação digital acontece quando estratégia, tecnologia e experiência andam juntas e é isso que entregamos.
Para repensar o futuro, é essencial garantir ambientes mais diversos e inclusivos. Por isso, incentivamos fortemente a candidatura de mulheres, pessoas pretas, pardas, indígenas, LGBTQIAPN+ e pessoas com deficiência.
Engenheiro de Dados Júnior
Você será responsável por apoiar a construção e sustentação de pipelines de dados robustos e eficientes no Databricks, garantindo entrega contínua de dados transformados e governados, desde a ingestão até a disponibilização para consumo analítico.
Apoiar a construção e sustentação de pipelines no Databricks, utilizando notebooks, jobs e pipelines;
Garantir a entrega contínua das camadas Bronze, Silver e Gold dentro da arquitetura de dados;
Ingerir, transformar e disponibilizar dados para consumo analítico;
Criar e manter tabelas Delta e views para suporte a dashboards e análises;
Atuar com compartilhamento e consumo de dados via Delta Sharing;
Apoiar a governança de dados utilizando Unity Catalog, gerenciando catálogos, schemas e permissões;
Monitorar execuções de pipelines, identificar falhas e realizar troubleshooting;
Corrigir causas-raiz e propor melhorias de confiabilidade e performance;
Implementar e/ou apoiar validações de qualidade de dados;
Documentar pipelines, regras de negócio e a linhagem básica dos dados;
Colaborar com analistas, times de BI e áreas de negócio para entendimento de requisitos e evolução das entregas.
Para esta vaga, é essencial:
Conhecimento sólido de SQL (joins, agregações, CTEs, window functions e modelagem básica para analytics);
Conhecimento prático de Python para dados (manipulação, leitura/escrita e organização de código em notebooks);
Noções de Apache Spark/Databricks (DataFrames, particionamento, leitura/escrita em Delta e execução distribuída em alto nível);
Experiência inicial com Databricks (uso de notebooks, jobs, clusters e boas práticas básicas);
Familiaridade com pipelines de dados e arquitetura Medallion (Bronze/Silver/Gold), mesmo em contexto acadêmico ou projetos;
Conhecimento em Git e controle de versão (branch, PR e resolução simples de conflitos);
Capacidade de investigar problemas (logs, métricas simples, reprocessamentos) e comunicar status com clareza;
Disponibilidade para atuar com sustentação de rotinas, acompanhando falhas e correções dentro do horário acordado.
Você pode se destacar se:
Tiver experiência com Azure Data Factory (pipelines, triggers, integrações, parâmetros, monitoramento).
Possuir conhecimento prático de Unity Catalog (permissões, data access, boas práticas de governança).
Tiver vivência com Delta Sharing (publicação/consumo e cuidados com segurança e contratos de dados).
Possuir experiência com orquestração e automação (Databricks Workflows, CI/CD, Databricks Repos, Azure DevOps/GitHub Actions).
Tiver conhecimento em Data Quality e Observabilidade (ex.: Great Expectations/Deequ, métricas, SLIs/SLOs, alertas).
Possuir experiência em otimização no Databricks/Delta (partitioning, Z-ORDER, OPTIMIZE/VACUUM, caching, controle de custos).
Tiver noções de modelagem dimensional e consumo por ferramentas de BI (camadas semânticas, performance para dashboards).
Possuir conhecimento de segurança e boas práticas (RBAC, segregação de ambientes, secrets, princípios de menor privilégio).
Engenheiro de Dados Sênior - Oracle Cloud (OCI)
Engenheiro responsável pelo desenvolvimento e otimização de pipelines de dados em ambientes Oracle Cloud, com foco em Oracle Cloud Data Integration e Oracle Autonomous Data Warehouse (ADW). Atuará em integração de dados via APIs REST, ingestão de arquivos e harmonização de dados do Oracle Fusion Analytics Warehouse, além de modelar camadas analíticas para BI em Power BI.
Desenvolver, manter e otimizar pipelines de dados em ambientes Oracle Cloud, com foco em Oracle Cloud Data Integration e Oracle Autonomous Data Warehouse (ADW).
Construir e gerenciar integrações de dados via APIs REST e ingestão de arquivos (CSV, JSON, XML, Parquet) a partir de fontes heterogêneas.
Extrair e harmonizar dados do Oracle Fusion Analytics Warehouse (FAW), consolidando informações financeiras e operacionais no Data Lake.
Modelar e estruturar dados nas camadas analíticas para suportar soluções de BI e relatórios analíticos em Power BI.
Trabalhar com processos de ingestão, transformação e disponibilização de dados (ETL/ELT) respeitando a arquitetura de camadas do Data Lake.
Apoiar a construção e manutenção do Catálogo de Dados no OCI, incluindo descoberta, linhagem e glossário.
Garantir boas práticas de governança, qualidade e segurança de dados.
Atuar em colaboração com times de arquitetura, analytics e áreas de negócio para entender demandas e propor soluções escaláveis.
Requisitos Necessários:
Experiência sólida como Engenheiro(a) de Dados em projetos sobre Oracle Cloud Infrastructure (OCI).
Experiência com OCI Data Integration ou ferramenta equivalente de orquestração e transformação de dados em Oracle Cloud.
Conhecimento em Oracle Autonomous Data Warehouse (ADW) e Oracle Object Storage.
Experiência com integração de dados via APIs REST e múltiplas fontes de dados heterogêneas.
Experiência com SQL avançado e modelagem de dados (dimensional e analítica).
Vivência com arquiteturas modernas de Data Lake em cloud, incluindo padrões de camadas de dados (medallion ou equivalente).
Vivência com ferramentas de ETL/ELT e integração de dados.
Experiência com linguagens de programação voltadas a dados (Python ou similar).
Diferenciais:
Experiência com Oracle Fusion Analytics Warehouse (FAW) — extração e entendimento do modelo de dados do Fusion.
Vivência com Oracle Data Catalog para gestão de metadados e linhagem de dados.
Experiência com Oracle Integration Cloud (OIC) para integração de sistemas.
Familiaridade com Power BI como camada de consumo dos dados estruturados.
Modelo de Trabalho
Contratação PJ
Reembolso 100% em certificações
Trilhas de capacitação e comunidades técnicas
Engenheiro de Dados GCP (DBT e ETL) Sênior
Responsável por projetar e implementar pipelines de dados robustos utilizando DBT e tecnologias do ecossistema Google Cloud (BigQuery, Cloud Storage, LookerML, etc.). Atuará com ferramentas ETL, garantindo a extração, transformação e carga de dados de forma eficiente, com foco em governança e segurança.
Desenvolver e orquestrar pipelines de dados utilizando DBT, com otimização de macros e templates.
Projetar e otimizar estruturas de dados no Google Cloud (BigQuery), garantindo eficiência e desempenho em consultas SQL.
Implementar e manter processos de ETL, garantindo qualidade e governança dos dados migrados.
Utilizar Python para desenvolver scripts de automação e transformação de dados.
Benefícios
Vale-alimentação ou vale-refeição;
Desconto em cursos, universidades e instituições de idiomas;
Academia Stefanini – plataforma com cursos on‑line, gratuitos, atualizados e com certificado;
Clube de vantagens para consultas e exames;
Assistência médica;
Auxílio home office no valor de R$ 150,00 mensais;
Benefícios com mais de R$ 1.200,00 mensais em cartão Sólides Benefícios;
Plano de saúde Alice (100% pago para titular e dependentes), Day off no aniversário;
TotalPass (incluindo TotalMind);
Acesso ao Wework;
Encontros presenciais para troca e conexão com a nossa Tribo;
Remuneração compatível (PJ);
Benefício flexível via cartão Swile;
Wellhub (antigo Gympass);
Convênio médico Porto Saúde;
Convênio odontológico Uniodonto.
Suas candidaturas devem demonstrar, dentre outros, capacidade de desenvolver soluções robustas, conhecimento em SQL, Python e ferramentas de data pipeline.
#J-18808-Ljbffr