Descrição da vaga
Responsável por apoiar a estrutura, governança e sustentação do pipeline de dados da empresa, analisar e atender demandas relacionadas a análise de dados de todas as áreas, visando realizar a extração de dados de diferentes plataformas, tratamento, combinação de dados, consolidação e sumarização dos painéis via ferramenta de BI, bem como disseminar a cultura de dados e possibilitar que os usuários das áreas de negócios possam tomar decisões baseadas em dados.
Fique sempre ligado em seus meios de comunicação! Eles serão fundamentais para sua jornada no processo seletivo#Fruki!
Valorizamos a diversidade e todas as pessoas são bem-vindas!
Responsabilidades e atribuições
Apoiar os processos de extração, transformação e carga de dados (ETL) a partir de diferentes plataformas, contribuindo para a integração e consolidação das informações em um repositório central;
Auxiliar no entendimento das regras de negócio por meio da interação com pessoas chave da organização e da análise de códigos dos diversos sistemas, apoiando na disponibilização de informações para análises e geração de indicadores;
Prestar orientação na criação de painéis na ferramenta dataviz, no que se refere a boas práticas na criação de consultas na linguagem SQL;
Resolver problemas de inconsistência de dados, analisando todo o fluxo de ingestão de informação, dialogando com diferentes áreas da empresa para entendimento de regras de negócio, analisando códigos SQL, códigos Python, fluxos de dados e parâmetros da ferramenta de BI;
Otimizar consultas em códigos SQL afim de melhorar a performance, analisando código com baixo desempenho e aplicando melhores práticas de desenvolvimento para aprimorar a consulta;
Gerir e garantir a consistência do Data Warehouse da empresa, garantindo os dados presentes no DW sempre respeitem as melhores práticas de organização de informação em DW, seguindo por exemplo conceitos de Fato/Dimensão e o esquema de estrela ou floco de neve;
Elaborar soluções para versionamento de dados, combinando o desenvolvimento de fluxos que integram a ferramenta e a linguagem SQL para armazenar diferentes versões dos dados conforme eles se alteram;
Implementar e organizar a sincronização de informações entre diferentes programas que a empresa utiliza, implementando a sincronização de dados de forma que os dados sejam atualizados na ordem e horário corretos;
Participar de comitês de mudança, seguindo padrões pré-estabelecidos para apresentar solicitações de mudança e garantindo que, se necessário, os fluxos de dados existentes sejam modificados para se adequar a mudanças que possam vir a impactá-los.
Requisitos e qualificações
Cursando Ensino Superior em Tecnologia da Informação, Análise e Desenvolvimento de Sistemas, Engenharia de Dados, Ciência de Dados ou áreas afins;
Experiência na área de dados;
Conhecimento em processos de ETL, Linguagem SQL e Power BI;
Desejável conhecimento em Python, infraestrutura de dados da Microsoft Azure e arquitetura Databricks;
Disponibilidade para trabalhar de segunda a quinta-feira das 7h30 às 17h30 e nas sextas das 7h30 às 16h30, com 1h de intervalo;
Modelo de trabalho híbrido.
Informações adicionais
CONHEÇA NOSSOS BENEFÍCIOS:
Vale Refeição
Vale Alimentação
Vale Transporte
Programa de Participação de Resultados (PPR)
Plano de Saúde Unimed
Uniodonto
Seguro de vida, gratuito
Bolsa de Estudos
Auxílio educação
Wellhub (Gympass)
Canal de Acolhimento
Convênio Farmácia
Descontos na compra de produtos Fruki
Convênio com faculdades selecionadas
#J-18808-Ljbffr