Transformar o setor de construção com tecnologia é um grande desafio.
Aqui, trabalhamos em uma startup que busca impulsionar o varejo da construção civil em todo o Brasil. Nossa missão é conectar indústria, varejo e profissionais da obra por meio de soluções inovadoras.
Nossa equipe é diversa, inquietante e protagonista. Trabalhamos juntos para entender as dores reais do varejo e buscar soluções que gerem valor e resultados para os nossos usuários.
Estamos procurando alguém que tenha perfil empreendedor, seja apaixonado por construir soluções com foco no cliente e queira deixar sua marca em um dos setores mais importantes do país.
Seu Papel:
Como Engenheiro(a) de Dados, suas principais responsabilidades serão:
* Desenvolvimento de Pipelines Escaláveis: Criar e manter processos de ingestão de dados altamente eficientes (Batch, Streaming, CDC) para grandes volumes, garantindo a integridade, conformidade e resiliência dos dados.
* Modelagem e Otimização: Projetar, implementar e otimizar estruturas de dados no Data Lake/Lakehouse, orientadas à governança e que atendam às necessidades estratégicas dos times de Analytics e Negócios.
* Qualidade e Governança: Desenvolver e manter processos de tratamento, aplicando frameworks avançados de validação (como DQX) e garantindo a qualidade e acessibilidade dos dados.
* Monitoramento e Suporte: Implementar ferramentas e práticas de monitoramento contínuo para garantir a disponibilidade, desempenho e conformidade do Data Lake, atuando de forma proativa na resolução de problemas.
* Liderança Técnica em Governança: Liderar a implantação e utilização do Catálogo Unity no Databricks para documentar e organizar ativos, assegurando o cumprimento das políticas de governança de dados.
O Que Esperamos De Você:
Buscamos alguém com experiências e conhecimentos técnicos:
* Arquitetura de Dados: Conhecimento profundo e experiência prática na aplicação de Data Lake, Data Warehouse e Lakehouse.
* Linguagens e Frameworks: Proficiência em Python e SQL avançado.
* Nuvem Azure: Experiência avançada com o ecossistema Azure, incluindo Data Factory, Databricks e Data Lake.
* Engenharia Essencial: Sólida experiência em arquiteturas distribuídas e padrões de ingestão de dados.
* Governança de Dados e DataOps: Experiência em catalogação, linhagem, qualidade e aplicação dos princípios de DataOps e DMBoK.
* DevOps/MLOps: Experiência na criação e manutenção de pipelines CI/CD com ferramentas como Github.
* Segurança da Informação: Conhecimento e aplicação da camada de segurança.
Habilidades Comportamentais:
Comunicação eficaz, senso de urgência e capacidade de resolver problemas complexos.
Trabalhamos em um ambiente colaborativo e dinâmico, onde você pode aprender e contribuir com impacto real.
],