Enviar CV para mayra@rehva.com.br e vitor@rehva.com.br Sobre a empresa Referência em inteligência geográfica e dados estratégicos, combinando tecnologia, análise geoespacial e consultoria para apoiar grandes organizações em decisões de expansão, performance comercial e planejamento de longo prazo. Com mais de duas décadas de experiência em estudos territoriais, geomarketing e projeções de mercado, ela entrega soluções que unem profundidade analítica e inovação tecnológica — incluindo plataformas próprias e projetos customizados com forte impacto no negócio dos clientes. É um ambiente ideal para profissionais de dados que buscam desafios reais, autonomia e a oportunidade de influenciar diretamente produtos, modelos analíticos e decisões estratégicas de alto nível! Sobre a vaga Construir, otimizar e manter uma arquitetura de dados robusta, escalável e confiável, garantindo a integridade das bases utilizadas em análises, operações de recall/pós-venda, modelos estatísticos e aplicações de geomarketing. Este profissional será responsável por estruturar processos, padrões e pipelines, atuando de forma totalmente hands-on, com forte domínio técnico e capacidade de resolver gargalos complexos de forma rápida e segura. Auxiliará na construção de pipelines e também na tomada de decisões. Responsabilidades Principais Arquitetura e Engenharia de Dados; Construir e evoluir a arquitetura de dados da empresa (on-premise cloud); Projetar pipelines ETL/ELT confiáveis, escaláveis e modulares; Definir padrões técnicos, modelagem de dados e melhores práticas; Estruturar processos de DataOps e governança técnica; Qualidade, governança e performance; Garantir integridade, consistência e qualidade das bases; Implementar testes, validações, checkpoints e auditoria automática; Otimizar consultas, modelos e estruturas para alta performance; Operação e suporte técnico avançado; Resolver gargalos técnicos críticos (bases, cargas, pipelines); Estruturar fluxos de ingestão de dados de diversas; Apoiar demandas técnicas de Consultoria e Cientistas de Dados; Automação e padronização; Reduzir processos manuais criando automações; Estruturar frameworks para Engenharia de dados, DBAs e cientistas utilizarem; Criar documentação clara, atualizada e acessível; Colaboração com áreas de negócio e produto; Trabalhar diretamente com o time de Engenharia, PMO; Apoiar a evolução de produtos internos baseados em dados (geomarketing, APIs, dashboards). Requisitos técnicos Linguagens e Programação; Python (Pandas, NumPy, ETL) avançado; SQL (PostgreSQL e MySQL) nível especialista; Git / Versionamento, avançado; Pipelines e Orquestração; Airflow / DBT / SSIs; Criação e manutenção de ETLs; Experiência com automação de carga e transformação; Modelagem e Arquitetura de Dados; Modelagem dimensional e operacional; Data Lakes, Data Warehouses e Data Marts; Processos de DataOps; Bancos e Ambientes; PostgreSQL; MySQL; ElasticSearch (desejável); Experiência com ambientes híbridos (on-prem cloud); Linux nível básico/intermediário; Ferramentas e Tecnologias Adicionais; Apache Spark ou PySpark; Docker; Experiência com Google Cloud, AWS ou Azure; Ferramentas de observabilidade; Experiência com dados geográficos; Experiência com ingestão via APIs REST; Experiência com pipelines sensíveis ou de SLA crítico (diários/semanais). Soft Skills Perfil hands-on; Resolução estruturada de problemas; Comunicação clara e objetiva; Autonomia total para propor e implementar melhorias; Organização e documentação. Regime de contratação: PJ ou CLT