A Foursys é um time apaixonado por inovação, design e transformação digital.
Somos globais, somos GPTW.
Na Foursys, celebramos a diversidade e acreditamos que são as diferentes ideias e perspectivas que nos enriquecem. Portanto, sua cor, religião, gênero, raça, nacionalidade, idade, origem, identidade de gênero, deficiência ou orientação sexual não são barreiras para se juntar à nossa equipe. #VemSerFoursys
Todas as nossas vagas estão abertas para Pessoas com Deficiência (PCD). Caso você se enquadre ou conheça alguém com o perfil, a Foursys é a empresa ideal
Que tal se juntar a nós e se tornar um(a) #FourTalent? Então se liga nessa oportunidade incrível:
Estamos em busca de um(a) Engenheiro(a) de Dados Sênior para atuar na construção, manutenção e evolução de pipelines de dados escaláveis e confiáveis. Essa posição é estratégica para garantir a integridade, qualidade e governança dos dados em uma arquitetura moderna de dados, com foco em GCP.
Sobre o Papel
Responsabilidades:
* Projetar, construir e manter pipelines de dados eficientes e escaláveis.
* Gerenciar e otimizar o Data Lake, assegurando organização e qualidade dos dados brutos.
* Desenvolver processos de transformação de dados utilizando ferramentas modernas de ETL / ELT.
* Modelar e otimizar estruturas de dados para atender às necessidades de analytics.
* Implementar boas práticas de governança de dados: metadados, linhagem, qualidade e versionamento.
* Monitorar e corrigir falhas nos pipelines garantindo a confiabilidade e os SLAs estabelecidos.
* Colaborar com times de dados, analytics e negócio para mapear e implementar soluções de valor.
Qualificações
* Ensino Superior Completo em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas.
Habilidades Requeridas
* Experiência sólida com Google Cloud Platform (GCP), principalmente:
* Google Cloud Storage
* BigQuery
* Google Cloud Functions
* Domínio em ferramentas de ETL / ELT, como:
* Airbyte (ou equivalentes: Fivetran, Stitch)
* DBT (Data Build Tool)
* SQL avançado e técnicas de otimização de queries.
* Desenvolvimento em Python para automação e manipulação de dados.
* Conhecimento em modelagem de dados (ex: Dimensional, Data Vault).
* Familiaridade com DataOps e práticas de CI / CD aplicadas a pipelines de dados.
* Conhecimento em outras nuvens (Azure, AWS).
* Experiência com ferramentas de versionamento e observabilidade de dados.
* Certificações GCP ou DBT.
Modelo de Contratação
Atuação: Remoto e Híbrido
Modelo de contratação: CLT + Benefícios
#J-18808-Ljbffr