A Foursys é um time apaixonado por inovação, design e transformação digital.
Somos globais, somos GPTW.
Na Foursys, celebramos a diversidade e acreditamos que são as diferentes ideias e perspectivas que nos enriquecem. Portanto, sua cor, religião, gênero, raça, nacionalidade, idade, origem, identidade de gênero, deficiência ou orientação sexual não são barreiras para se juntar à nossa equipe. #VemSerFoursys!
Todas as nossas vagas estão abertas para Pessoas com Deficiência (PCD). Caso você se enquadre ou conheça alguém com o perfil, a Foursys é a empresa ideal!
Que tal se juntar a nós e se tornar um(a) #FourTalent? Então se liga nessa oportunidade incrível :
Estamos em busca de um(a) Engenheiro(a) de Dados Sênior para atuar na construção, manutenção e evolução de pipelines de dados escaláveis e confiáveis. Essa posição é estratégica para garantir a integridade, qualidade e governança dos dados em uma arquitetura moderna de dados, com foco em GCP.
Sobre o Papel
* Projetar, construir e manter pipelines de dados eficientes e escaláveis.
* Gerenciar e otimizar o Data Lake, assegurando organização e qualidade dos dados brutos.
* Desenvolver processos de transformação de dados utilizando ferramentas modernas de ETL / ELT.
* Modelar e otimizar estruturas de dados para atender às necessidades de analytics.
* Implementar boas práticas de governança de dados: metadados, linhagem, qualidade e versionamento.
* Monitorar e corrigir falhas nos pipelines garantindo a confiabilidade e os SLAs estabelecidos.
* Colaborar com times de dados, analytics e negócio para mapear e implementar soluções de valor.
Qualificações
* Ensino Superior Completo em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas.
Habilidades Requeridas
* Experiência sólida com Google Cloud Platform (GCP), principalmente Google Cloud Storage
* BigQuery
* Google Cloud Functions
* Domínio em ferramentas de ETL / ELT, como Airbyte (ou equivalentes: Fivetran, Stitch)
* DBT (Data Build Tool)
* SQL avançado e técnicas de otimização de queries.
* Desenvolvimento em Python para automação e manipulação de dados.
* Conhecimento em modelagem de dados (ex : Dimensional, Data Vault).
* Familiaridade com DataOps e práticas de CI / CD aplicadas a pipelines de dados.
* Conhecimento em outras nuvens (Azure, AWS).
* Experiência com ferramentas de versionamento e observabilidade de dados.
* Certificações GCP ou DBT.
Modelo de Contratação
Atuação : Remoto e Hibrido
Modelo de contratação : CLT + Benefícios
#J-18808-Ljbffr