Descrição Geral dos ServiçosEste serviço compreende a criação e manutenção assistida de Processos de Coleta e Armazenamento de Dados em um formato adequado para análise;Apoio em atividades relacionadas a manutenção da infraestrutura necessária para o funcionamento contínuo dos pipelines de dados;Coleta de dados com níveis de segurança exigidos pela empresa, seguindo a Metodologia de Consumo de dados;Disponibilização de dados em camada utilizável por diversos consumidores de dados;Atividades BásicasImplementar Pipeline de Dados previamente projetados para coleta, armazenamento e organização dos dados brutos de várias fontes;Manter os pipelines de dados para que executem seguindo programações, prazos e qualidade dos dados;Garantir que os dados estejam disponíveis quando necessário, capturados de maneira eficiente e segura;Integrar diversas fontes de dados em camada analítica disponível para consumo;Transformar e limpar os dados antes de disponibilizá-los para uso;Realizar levantamento e detalhamento dos dados nas bases fonte e alvo definidas para o pipeline de dados;Elaborar e manter atualizado os artefatos definidos na Metodologia de Consumo de Dados;Realizar outras tarefas, não especificadas acima, inerentes à função;Requisitos Básicos dos PerfisCurso superior completo, preferencialmente na área de informática ou em área afim (tecnologia da informação);Experiência em Projetos de Dados, na função de Engenheiro de Dados Júnior, que comprovem a experiência prática em:Tecnologias e ferramentas associadas a bancos de dados relacionais (Ex.: IBM DB2/SQL Server);Desenvolvimento de processos ETL, para ingestão, transformação e consumo de dados;Ferramentas de Integração de Dados (ex.: IBM DataStage, Pentaho Data Integration, entre outras);Modelagem de dados Entidade e Relacionamento, Esquema Estrela ou Multidimensional;Linguagem SQL;Trabalho em times ágeis utilizando metodologia Scrum ou Kanban.Conhecimentos desejáveis em:Sistemas de processamento distribuído com paralelismo e tolerância a falhas (Ex.: Apache Spark) de alta performance, disponibilidade e escalabilidade;Linguagens Python, Scala, Java ou Pyspark;Framework de armazenamento e processamento distribuídos para grandes conjuntos de dados em cluster (Ex.: Apache Hadoop);
#J-18808-Ljbffr