Descrição do Cargo:
Vaga remota para trabalhar com dados num ecossistema Big Data.
* Implementar e alterar pipelines de dados;
* Criar modelagem de dados;
* Extrair, transformar e carregar (ETL) dados de diferentes origens e formatos;
Habilidades e Qualificações:
* Linguagens Pyspark, Python, SQL para preparar e manipular dados;
* Leitura e escrita de formatos de dados Big Data;
* Atuar em plataforma cloud Azure;
* Databricks, Storage Account, CosmosDB (MongoDB), Data Factory, Azure Devops;
* Capacidade de levantamento e Análise de Requisitos de negócio e técnicos;
* Ingestão, manipulação e tratamento de dados estruturados e principalmente semi estruturados;
* Atuação em projetos de stream de dados;
* Kafka Confluent;
* Otimização de performance de pipelines de dados;
* Configurações cluster Databricks;
* Mentoria para os demais membros da equipe;
Benefícios:
* Vale Refeição/Vale Alimentação;
* Plano de Saúde;
* Plano Odontológico;
* Seguro de Vida;
* PPR;
* TotalPass;
* Auxílio Creche;
* Programa Well-Being;
* Universidade Corporativa;
Outros:
Somos uma empresa cidadã!
Proposta de Valor: #WorkWhereYouBelong
Trabalhe onde você pertence!