Responsabilidades e atribuições
 * Coletar, processar e gerenciar grandes conjuntos de dados de diversas fontes, garantindo a qualidade e integridade dos mesmos.
 * Criar modelagem de novas soluções de arquitetura de dados seguras, confiáveis, disponíveis e escaláveis.
 * Planejar e executar as modelagens de repositórios de dados tais como: Data Lake, Data Warehouse, bases relacionais e não relacionais, suportando as necessidades transacionais e analíticas da empresa.
 * Criar e manter pipelines de dados eficientes, escaláveis e seguros, utilizando ferramentas e tecnologias de Big Data como Hadoop, Spark, Hive, etc.
 * Colaborar com as equipes de análise de dados e desenvolvimento de software para fornecer dados precisos, atualizados e confiáveis.
 * Desenvolver e manter documentação técnica, incluindo diagramas de arquitetura e fluxos de dados.
 * Estruturar e gerenciar ambiente de dados em Cloud.
 * Coordenar chamados, incidentes, problemas e apresentar indicadores de performance.
Requisitos e qualificações
 * Graduação em Ciência da Computação, Engenharia da Computação, Sistemas de Informação ou áreas afins.
 * Pós-graduação em andamento em áreas afins.
 * Experiência anterior de 3 a 5 anos em desenvolvimento de soluções de Big Data, incluindo armazenamento, processamento e análise de dados.
 * Desejável conhecimento em SQL Server, Analysis Services, Reporting Services e Integration Services.
 * Experiência anterior de pelo menos 3 anos com a Stack Azure (DataFactory, DataBricks, Synapse, Purview) e Microsoft Power BI.
 * Experiência em linguagens de programação como Python, Java ou Scala.
 * Conhecimento de bancos de dados relacionais e não-relacionais, como MySQL, PostgreSQL, MongoDB, etc.
 * Conhecimento em plataforma de Streaming de Dados
 * Desejável conhecimento avançado em inglês ;
#J-18808-Ljbffr