Projetar, desenvolver e sustentar pipelines de dados em ambientes Big Data, garantindo qualidade, performance e confiabilidade. Responsabilidades Desenvolver pipelines ETL/ELT; Trabalhar com Hadoop,Spark, Databricks, Kafka; Integrar dados estruturados e não estruturados; Garantir qualidade, segurança e consistência dos dados; Atuar na sustentação e correção de incidentes; Documentar fluxos e arquiteturas de dados. Requisitos Experiência com Big Data e Engenharia de Dados; Conhecimentoem Hadoop, Spark, Databricks; Linguagens: SQL, Python, Scala (conforme senioridade); Vivência comambientescríticos e alta volumetria. Você vai amar trabalhar aqui se: Quiser ter a possibilidade de aprender e trabalhar com diversas tecnologias; Estiver em busca de uma empresa com possibilidades reais de crescimento e carreira; Estiver em busca de um ambiente leve e descontraído para trabalhar; Nossos benefícios: Vale refeição; Vale alimentação; Vale combustível; Plano de saúde; Plano odontológico; Seguro de vida; Auxílio Creche; Auxílio crianças com deficiência; Convênio Farmácia; PLR; TotalPass; Integra (Programa Qualidade de Vida); Trabalho Remoto. Apoio a certificações; Day off no mês do seuaniversário; #VemPraENG!