Estamos procurando por um profissional experiente em dados para desenvolver pipelines escaláveis e garantir a qualidade dos dados no Data Lake/Lakehouse.
Jornada Profissional
Ao assumir esse papel, você será responsável por:
* Desenvolver pipelines escaláveis para processar grandes volumes de dados;
* Modelar e otimizar estruturas de dados no Data Lake/Lakehouse para melhorar a eficiência do processo;
* Garantir a qualidade e governança dos dados através de métodos rigorosos de verificação e validação;
* Liderar a implantação e utilização do Catálogo Unity no Databricks para facilitar o acesso e compartilhamento de dados entre equipes;
Habilidades Técnicas Necessárias
* Proficiência em Python (scripts, automações, ETL/ELT, PySpark, Pandas) e SQL avançado;
* Experiência avançada com o ecossistema Azure, incluindo Data Factory, Databricks e Data Lake;
* Sólida experiência em arquiteturas distribuídas e padrões de ingestão de dados (Batch, Streaming, CDC);
* Conhecimento em Data Lake, Data Warehouse e Lakehouse;
* DevOps/MLOps: Experiência na criação e manutenção de pipelines CI/CD com ferramentas como Github;
Habilidades Comportamentais Importantes
* Comunicação eficaz, empatia e colaboração;
* Senso de urgência e proatividade no contexto técnico;
* Capacidade de resolução de problemas complexos através de visão analítica e raciocínio lógico;
* Flexibilidade e resiliência em cenários de alta complexidade;
* Paixão pela qualidade e visão holística do negócio;