Projetar, desenvolver e sustentar pipelines de dados em ambientes Big Data, garantindo qualidade, performance e confiabilidade.ResponsabilidadesDesenvolver pipelines ETL/ELT;Trabalhar com Hadoop, Spark, Databricks, Kafka;Integrar dados estruturados e não estruturados;Garantir qualidade, segurança e consistência dos dados;Atuar na sustentação e correção de incidentes;Documentar fluxos e arquiteturas de dados. RequisitosExperiência com Big Data e Engenharia de Dados;Conhecimento em Hadoop, Spark, Databricks;Linguagens: SQL, Python, Scala (conforme senioridade);Vivência com ambientes críticos e alta volumetria.Você vai amar trabalhar aqui se: