Projetar, desenvolver e sustentar pipelines de dados em ambientes Big Data, garantindo qualidade, performance e confiabilidade.
Responsabilidades
Desenvolver pipelines ETL/ELT;
Trabalhar com Hadoop, Spark, Databricks, Kafka;
Integrar dados estruturados e não estruturados;
Garantir qualidade, segurança e consistência dos dados;
Atuar na sustentação e correção de incidentes;
Documentar fluxos e arquiteturas de dados.
Requisitos
Experiência com Big Data e Engenharia de Dados;
Conhecimento em Hadoop, Spark, Databricks;
Linguagens: SQL, Python, Scala (conforme senioridade);
Vivência com ambientes críticos e alta volumetria.
Você vai amar trabalhar aqui se: