Responsabilidades
Responsável pelo desenvolvimento e manutenção da infraestrutura de dados, assegurando que nossos dados sejam precisos, acessíveis e utilizáveis para análise e tomada de decisões.
Planejar e executar o atendimento de diversos temas e sistemas diferentes para ingestão e envio de dados.
Compartilhar e auxiliar na condução do time para melhoria continua dos processos e códigos, reportando para alta Diretoria.
Atribuições
Responsável pela integração de dados, por meio do desenvolvimento de tecnologias que capturam informações de diferentes sistemas e fontes, assegurando consistência e qualidade na coleta e no tratamento.
Escalabilidade da infraestrutura de dados, baseada em tecnologias avançadas de análise e inteligência artificial, capaz de acompanhar o crescimento da organização e suprir demandas por dados em tempo real.
Na frente de governança de dados, o papel requer a definição de regras técnicas em conjunto com TI e áreas de negócio, garantindo segurança, conformidade e o uso adequado das informações, além de gerenciar acessos de forma eficaz.
Com foco contínuo em inovação tecnológica, é fundamental manter o ambiente de dados e o time atualizados com as melhores práticas, ferramentas e metodologias de engenharia de dados, implementando soluções que agreguem valor estratégico à empresa.
Entre as atividades técnicas, destaca-se a modelagem de dados com base em estruturas fato x dimensão, essenciais para suportar análises robustas.
Também é responsável pela criação de pipelines e workflows de ingestão de grandes volumes de dados, seguindo práticas de ELT para garantir eficiência e escalabilidade.
Além disso, o profissional atua como referência técnica dentro do time, apoiando na tomada de decisões estratégicas, orientando a adoção das melhores tecnologias e práticas, e contribuindo para a evolução técnica da equipe.
Formação
Graduação completa em Ciências exatas, Administração de empresas e Negócios, Economia ou correlatos.
Qualificações
Plataforma DataBricks
Serviços de nuvem (AWS, Google Cloud, Azure)
Data warehouse e ferramentas de big data
PySpark, Python, SQL
Manipulação de grandes volumes de dados
Metodologia Ágil