Projetar, desenvolver e sustentar pipelines de dados em ambientes Big Data, garantindo qualidade, performance e confiabilidade.
Responsabilidades
Desenvolver pipelines ETL/ELT;
Trabalhar com Hadoop, Spark, Databricks, Kafka;
Integrar dados estruturados e não estruturados;
Garantir qualidade, segurança e consistência dos dados;
Atuar na sustentação e correção de incidentes;
Documentar fluxos e arquiteturas de dados.
Requisitos
Experiência com Big Data e Engenharia de Dados;
Conhecimento em Hadoop, Spark, Databricks;
Linguagens: SQL, Python, Scala (conforme senioridade);
Vivência com ambientes críticos e alta volumetria.
Você vai amar trabalhar aqui se:????
Quiser ter a possibilidade de aprender e trabalhar com diversas tecnologias;
Estiver em busca de uma empresa com possibilidades reais de crescimento e carreira;
Estiver em busca de um ambiente leve e descontraído para trabalhar;
Nossos benefícios: ??
Vale refeição;
Vale alimentação;
Vale combustível;
Plano de saúde;
Plano odontológico;
Seguro de vida;
Auxílio Creche;
Auxílio crianças com deficiência;
Convênio Farmácia;
PLR;
TotalPass;
Integra (Programa Qualidade de Vida);
Trabalho Remoto.
Apoio a certificações;
Day off no mês do seu aniversário;
#VemPraENG!
??????