Projetar, desenvolver e sustentar pipelines de dados em ambientes Big Data, garantindo qualidade, performance e confiabilidade.
Responsabilidades
* Desenvolver pipelines ETL/ELT;
* Trabalhar com Hadoop, Spark, Databricks, Kafka;
* Integrar dados estruturados e não estruturados;
* Garantir qualidade, segurança e consistência dos dados;
* Atuar na sustentação e correção de incidentes;
* Documentar fluxos e arquiteturas de dados.
Requisitos
* Experiência com Big Data e Engenharia de Dados;
* Conhecimento emHadoop, Spark, Databricks;
* Linguagens: SQL, Python, Scala (conforme senioridade);
* Vivência com ambientes críticos e alta volumetria.
Você vai amar trabalhar aqui se:😍😍
* Quiser ter a possibilidade de aprender e trabalhar com diversas tecnologias;
* Estiver em busca de uma empresa com possibilidades reais de crescimento e carreira;
* Estiver em busca de um ambiente leve e descontraído para trabalhar;
Nossos benefícios: 🎁
* Vale refeição;
* Vale alimentação;
* Vale combustível;
* Plano de saúde;
* Plano odontológico;
* Seguro de vida;
* Auxílio Creche;
* Auxílio crianças com deficiência;
* Convênio Farmácia;
* PLR;
* TotalPass;
* Integra (Programa Qualidade de Vida);
* Trabalho Remoto.
* Apoio a certificações;
* Day off no mês do seu aniversário;
#VemPraENG!🚀🚀🚀