Descrição
Desenvolver, manter e monitorar pipelines de dados, assegurando disponibilidade, qualidade e confiabilidade das informações;
Projetar, implementar e otimizar modelos de dados em Data Lakes e Data Warehouses;
Integrar dados provenientes de múltiplas fontes, como bancos de dados, APIs e sistemas internos e externos;
Garantir performance, escalabilidade e segurança das soluções de dados;
Acompanhar indicadores de qualidade e performance dos dados, propondo melhorias contínuas;
Atuar como ponto focal entre áreas técnicas e de negócio, apoiando analistas e cientistas de dados;
Documentar processos, fluxos e soluções técnicas relacionadas à engenharia de dados.
Requisitos
Ensino superior completo em Ciência da Computação, Engenharia, Sistemas de Informação, Estatística, Matemática ou áreas correlatas;
Experiência mínima de 3 a 5 anos atuando com engenharia de dados, BI ou áreas relacionadas;
Sólida experiência com SQL e modelagem de dados;
Vivência no desenvolvimento e manutenção de pipelines de dados (ETL/ELT);
Experiência com linguagens de programação, principalmente Python (ou Scala);
Conhecimento em Data Warehouse, Data Lake e arquiteturas de dados;
Experiência com ambientes em cloud (AWS, Azure ou GCP);
Conhecimento em ferramentas de orquestração de dados (Airflow ou similares).
#J-18808-Ljbffr