Projetar, desenvolver e sustentar pipelines de dados em ambientes Big Data, garantindo qualidade, performance e confiabilidade. Responsabilidades
Desenvolver pipelines ETL / ELT;Trabalhar com Hadoop, Spark, Databricks, Kafka;Integrar dados estruturados e não estruturados;Garantir qualidade, segurança e consistência dos dados;Atuar na sustentação e correção de incidentes;
Documentar fluxos e arquiteturas de dados.
Requisitos
Experiência com Big Data e Engenharia de Dados;Conhecimento em Hadoop, Spark, Databricks;Linguagens : SQL, Python, Scala (conforme senioridade);
Vivência com ambientes críticos e alta volumetria.
Você vai amar trabalhar aqui se :
Quiser ter a possibilidade de aprender e trabalhar com diversas tecnologias;Estiver em busca de uma empresa com possibilidades reais de crescimento e carreira;Estiver em busca de um ambiente leve e descontraído para trabalhar;
Nossos benefícios :
Vale refeição;Vale alimentação;Vale combustível;Plano de saúde;Plano odontológico;Seguro de vida;Auxílio Creche;Auxílio crianças com deficiência;Convênio Farmácia;PLR;TotalPass;Integra (Programa Qualidade de Vida);
Trabalho Remoto.
Apoio a certificações;Day off no mês do seu aniversário;
VemPraENG!
#J-18808-Ljbffr