Engenheiro de Dados - Júnior A jornada de quem ama repensar o futuro está aqui. Sobre a Rethink Somos uma consultoria que une tecnologia, design e estratégia de produtos digitais para solucionar os desafios de grandes empresas brasileiras. Agora como parte da Framework Digital, ampliamos nosso impacto atuando de ponta a ponta na jornada digital, da concepção à escala. Nossa missão é gerar valor real por meio de soluções que conectam times, sistemas e pessoas. Acreditamos que a transformação digital acontece quando estratégia, tecnologia e experiência andam juntas e é isso que entregamos. Empresas como Smiles, Gol, Santander Esfera, Swift e Comgás confiam em nossa parceria para acelerar sua evolução digital com consistência e resultado. Diversidade e Inclusão Para repensar o futuro, é essencial garantir ambientes mais diversos e inclusivos. Por isso, incentivamos fortemente a candidatura de mulheres, pessoas pretas, pardas, indígenas, LGBTQIAPN+ e pessoas com deficiência. Que tal repensar um futuro mais diverso com a gente? Qual será o seu papel? Como Engenheiro de Dados Júnior, seu papel será crucial no apoio à construção e sustentação de pipelines de dados robustos e eficientes, principalmente no ambiente Databricks. Você será responsável por garantir a entrega contínua de dados transformados e governados, desde a ingestão até a disponibilização para consumo analítico. Sua atuação contribuirá diretamente para a qualidade, confiabilidade e acessibilidade dos dados, sendo um membro fundamental na equipe de engenharia de dados. Como será seu dia a dia? Apoiar a construção e sustentação de pipelines de dados no Databricks, utilizando notebooks, jobs e pipelines; Garantir a entrega contínua das camadas Bronze, Silver e Gold dentro da arquitetura de dados; Ingerir, transformar edisponibilizar dados para consumo analítico; Criar e manter tabelasDelta e views para suporte a dashboards e análises; Atuar com compartilhamento e consumo de dados via Delta Sharing; Apoiar a governança dedados utilizando Unity Catalog, gerenciando catálogos, schemas e permissões; Monitorar execuções depipelines, identificar falhas e realizar troubleshooting; Corrigir causas-raiz epropor melhorias de confiabilidade e performance; Implementar e/ou apoiar validações de qualidade de dados; Documentar pipelines, regras de negócio e a linhagem básica dos dados; Colaborar comanalistas, times de BI e áreas de negócio para entendimento de requisitos e evolução das entregas. Para esta vaga, é essencial: Conhecimento sólido de SQL (joins, agregações, CTEs, window functions e modelagem básica para analytics); Conhecimento prático de Python para dados (manipulação, leitura/escrita e organização de código em notebooks); Noções de Apache Spark/Databricks (DataFrames, particionamento, leitura/escrita em Delta e execução distribuída em alto nível); Experiência inicial com Databricks (uso de notebooks, jobs, clusters e boas práticas básicas); Familiaridadecom pipelines de dados e arquitetura Medallion (Bronze/Silver/Gold), mesmo em contexto acadêmico ou projetos; Conhecimento em Git e controle de versão (branch, PR e resolução simples de conflitos); Capacidade deinvestigar problemas (logs, métricas simples, reprocessamentos) e comunicar status com clareza; Disponibilidade para atuar com sustentação de rotinas, acompanhando falhas e correções dentro do horário acordado. Você pode se destacar se: Tiver experiência com Azure Data Factory (pipelines, triggers, integrações, parâmetros, monitoramento). Possuir conhecimento prático de Unity Catalog (permissões, data access, boas práticas de governança). Tiver vivência com Delta Sharing (publicação/consumo e cuidados com segurança e contratos de dados). Possuir experiência com orquestração e automação (Databricks Workflows, CI/CD, Databricks Repos, Azure DevOps/GitHub Actions). Tiver conhecimento em Data Quality e Observabilidade (ex.: Great Expectations/Deequ, métricas, SLIs/SLOs, alertas). Possuir experiência em otimização no Databricks/Delta (partitioning, Z-ORDER, OPTIMIZE/VACUUM, caching, controle de custos). Tiver noções de modelagem dimensional e consumo por ferramentas de BI (camadas semânticas, performance para dashboards). Possuir conhecimento de segurança e boas práticas (RBAC, segregação de ambientes, secrets, princípios de menor privilégio). Curtiu a oportunidade? Então, vem repensar o futuro com a gente! ✨