Projetar, desenvolver e sustentar pipelines de dados em ambientes Big Data, garantindo qualidade, performance e confiabilidade.
Responsabilidades
* Desenvolver pipelines ETL/ELT;
* Trabalhar com Hadoop, Spark, Databricks, Kafka;
* Integrar dados estruturados e não estruturados;
* Garantir qualidade, segurança e consistência dos dados;
* Atuar na sustentação e correção de incidentes;
* Documentar fluxos e arquiteturas de dados.
Requisitos
* Experiência com Big Data e Engenharia de Dados;
* Conhecimento em Hadoop, Spark, Databricks;
* Linguagens: SQL, Python, Scala (conforme senioridade);
* Vivência com ambientes críticos e alta volumetria.
Você vai amar trabalhar aqui se: