Trabalhe com tecnologia e inteligência para transformar o varejo da construção civil.
A nossa empresa nasceu em 2018 como uma startup de tecnologia com um sonho grande: impulsionar o setor de material de construção em todo o Brasil, conectando indústria, varejo e profissionais da obra por meio de um ecossistema de soluções inovadoras.
Com apoio dos nossos acionistas, movimentamos mais de R$10 bilhões em nossa Loja Virtual, impactando 100 mil lojas e 1,2 milhão de membros entre lojistas, vendedores e profissionais de obra.
Somos um time diverso, inquieto e protagonista — gente que sonha grande, age com autonomia e coloca o cliente no centro de tudo. Aqui, valorizamos quem se dedica a entender as dores reais do varejo e busca, com consistência, soluções que gerem valor e resultados para os nossos usuários.
Seu papel:
Como Engenheiro(a) de Dados, suas principais responsabilidades serão:
* Desenvolvimento de Pipelines Escaláveis: Criar e manter processos de ingestão de dados altamente eficientes (Batch, Streaming, CDC) para grandes volumes, garantindo a integridade, conformidade e resiliência dos dados.
* Modelagem e Otimização: Projetar, implementar e otimizar estruturas de dados no Data Lake/Lakehouse, orientadas à governança e que atendam às necessidades estratégicas dos times de Analytics e Negócios.
* Qualidade e Governança: Desenvolver e manter processos de tratamento, aplicando frameworks avançados de validação (como DQX) e garantindo a qualidade e acessibilidade dos dados.
* Monitoramento e Suporte: Implementar ferramentas e práticas de monitoramento contínuo para garantir a disponibilidade, desempenho e conformidade do Data Lake, atuando de forma proativa na resolução de problemas.
* Liderança Técnica em Governança: Liderar a implantação e utilização do Catálogo Unity no Databricks para documentar e organizar ativos, assegurando o cumprimento das políticas de governança de dados.
Requisitos E Requisitos:
Buscamos um(a) profissional com as seguintes experiências e conhecimentos técnicos:
* Arquitetura de Dados: Conhecimento profundo e experiência prática na aplicação de Data Lake, Data Warehouse e Lakehouse.
* Linguagens e Frameworks: Proficiência em Python (scripts, automações, ETL/ELT, PySpark, Pandas) e SQL avançado (tuning de queries, modelagem, window functions).
* Nuvem Azure: Experiência avançada com o ecossistema Azure, incluindo Data Factory, Databricks e Data Lake.
* Engenharia Essencial: Sólida experiência em arquiteturas distribuídas e padrões de ingestão de dados (Batch, Streaming, CDC).
* Governança de Dados e DataOps: Experiência em catalogação, linhagem, qualidade e aplicação dos princípios de DataOps e DMBoK.
* DevOps/MLOps: Experiência na criação e manutenção de pipelines CI/CD com ferramentas como Github.
* Segurança da Informação: Conhecimento e aplicação da camada de segurança (criptografia, LGPD e mascaramento de dados).
Habilidades Comportamentais:
* Comunicação Eficaz, Empatia e Colaboração (Interação com Squads).
* Senso de Urgência e Proatividade no contexto técnico.
* Capacidade de Resolução de Problemas complexos, através de visão analítica e raciocínio lógico.
* Flexibilidade e Resiliência em cenários de alta complexidade.
* Paição pela Qualidade e Visão Holística do negócio.
Diferenciais:
Estes itens não são mandatórios, mas serão considerados um bônus para a posição Sênior:
* Experiência em Liderança Técnica e/ou Arquitetura de Projetos.
* Sólidos conhecimentos em SQL Server (SSMS, SSIS e SSAS) e ferramentas de visualização como Power BI.
* Conhecimento aprofundado em análise funcional, modelagem de dados e elaboração de documentação técnica de soluções.
* Conhecimento em arquitetura de três camadas, ambiente as a service, barramento (BUS) e orquestração.
* Experiência com API's para envio e recepção de informações e ferramentas como Excel no contexto de dados.