Transformar o varejo da construção civil com tecnologia, inteligência e propósito é nosso objetivo.
A partir de 2018, começamos a desenvolver soluções inovadoras para conectar indústria, varejo e profissionais da obra. Nossa missão é impulsionar o setor de material de construção em todo o Brasil.
Com apoio de parceiros sólidos, movimentamos mais de R$10 bilhões em nossa plataforma de vendas em 2024, impactando mais de 100 mil lojas e 1,2 milhão de membros entre lojistas, vendedores e profissionais de obra.
Somos uma equipe diversa e inquieta, que valoriza quem se dedica a entender as dores reais do varejo e busca soluções que gerem valor e resultados para nossos usuários.
Se você tem perfil empreendedor e é apaixonado por construir soluções com foco no cliente, está procurando um lugar onde possa deixar sua marca.
Seu papel:
Como Engenheiro(a) de Dados, suas principais responsabilidades serão:
* Desenvolvimento de Pipelines Escaláveis: Criar e manter processos de ingestão de dados altamente eficientes (Batch, Streaming, CDC) para grandes volumes, garantindo a integridade, conformidade e resiliência dos dados.
* Modelagem e Otimização: Projetar, implementar e otimizar estruturas de dados no Data Lake/Lakehouse, orientadas à governança e que atendam às necessidades estratégicas dos times de Analytics e Negócios.
* Qualidade e Governança: Desenvolver e manter processos de tratamento, aplicando frameworks avançados de validação (como DQX) e garantindo a qualidade e acessibilidade dos dados.
* Monitoramento e Suporte: Implementar ferramentas e práticas de monitoramento contínuo para garantir a disponibilidade, desempenho e conformidade do Data Lake, atuando de forma proativa na resolução de problemas.
* Liderança Técnica em Governança: Liderar a implantação e utilização do Catálogo Unity no Databricks para documentar e organizar ativos, assegurando o cumprimento das políticas de governança de dados.
O que esperamos de você:
Buscamos um(a) profissional com as seguintes experiências e conhecimentos técnicos:
* Arquitetura de Dados: Conhecimento profundo e experiência prática na aplicação de Data Lake, Data Warehouse e Lakehouse.
* Linguagens e Frameworks: Proficiência em Python (scripts, automações, ETL/ELT, PySpark, Pandas) e SQL avançado (tuning de queries, modelagem, window functions).
* Nuvem Azure: Experiência avançada com o ecossistema Azure, incluindo Data Factory, Databricks e Data Lake.
* Engenharia Essencial: Sólida experiência em arquiteturas distribuídas e padrões de ingestão de dados (Batch, Streaming, CDC).
* Governança de Dados e DataOps: Experiência em catalogação, linhagem, qualidade e aplicação dos princípios de DataOps e DMBoK.
* DevOps/MLOps: Experiência na criação e manutenção de pipelines CI/CD com ferramentas como Github.
* Segurança da Informação: Conhecimento e aplicação da camada de segurança (criptografia, LGPD e mascaramento de dados).
Habilidades Comportamentais:
* Comunicação Eficaz, Empatia e Colaboração (Interação com Equipes).
* Senso de Urgência e Proatividade no contexto técnico.
* Capacidade de Resolução de Problemas complexos, através de visão analítica e raciocínio lógico.
* Flexibilidade e Resiliência em cenários de alta complexidade.
* Paixão pela Qualidade e Visão Holística do negócio.
Diferenciais:
Estes itens são considerados um bônus para a posição Sênior:
* Experiência em Liderança Técnica e/ou Arquitetura de Projetos.
* Sólidos conhecimentos em SQL Server (SSMS, SSIS e SSAS) e ferramentas de visualização como Power BI.
* Conhecimento aprofundado em análise funcional, modelagem de dados e elaboração de documentação técnica de soluções.
* Conhecimento em arquitetura de três camadas, ambiente as a service, barramento (BUS) e orquestração.
* Experiência com API's para envio e recepção de informações e ferramentas como Excel no contexto de dados.