Projetar, desenvolver e sustentar pipelines de dados em ambientes Big Data, garantindo qualidade, performance e confiabilidade. Responsabilidades Desenvolver pipelines ETL/ELT; Trabalhar com Hadoop, Spark, Databricks, Kafka; Integrar dados estruturados e não estruturados; Garantir qualidade, segurança e consistência dos dados; Atuar na sustentação e correção de incidentes; Documentar fluxos e arquiteturas de dados. Requisitos Experiência com Big Data e Engenharia de Dados; Conhecimento em Hadoop, Spark, Databricks; Linguagens: SQL, Python, Scala (conforme senioridade); Vivência com ambientes críticos e alta volumetria. Você vai amar trabalhar aqui se: