Projetar, desenvolver e sustentar pipelines de dados em ambientes Big Data, garantindo qualidade, performance e confiabilidade.Responsabilidades Desenvolver pipelines ETL/ELT; Trabalhar com Hadoop, Spark, Databricks, Kafka; Integrar dados estruturados e não estruturados; Garantir qualidade, segurança e consistência dos dados; Atuar na sustentação e correção de incidentes; Documentar fluxos e arquiteturas de dados.Requisitos Experiência com Big Data e Engenharia de Dados; Conhecimento em Hadoop, Spark, Databricks; Linguagens: SQL, Python, Scala (conforme senioridade); Vivência com ambientes críticos e alta volumetria.Você vai amar trabalhar aqui se: Quiser ter a possibilidade de aprender e trabalhar com diversas tecnologias; Estiver em busca de uma empresa com possibilidades reais de crescimento e carreira; Estiver em busca de um ambiente leve e descontraído para trabalhar;Nossos benefícios: Vale refeição; Vale alimentação; Vale combustível; Plano de saúde; Plano odontológico; Seguro de vida; Auxílio Creche; Auxílio crianças com deficiência; Convênio Farmácia; PLR; TotalPass; Integra (Programa Qualidade de Vida); Trabalho Remoto. Apoio a certificações; Day off no mês do seu aniversário; #VemPraENG!