Descrição do cargo:O que buscamos:Profissional com sólida experiência em engenharia de dados, domínio do ecossistema GCP e capacidade de estruturar soluções escaláveis e seguras que apoiem decisões estratégicas de negócio.Responsabilidades:Projetar e implementar pipelines de dados eficientes e escaláveis, adequados a diferentes cenários de negócio (Data Lake, Data Warehouse, Data Mart);Criar e manter pipelines de ingestão e transformação de dados em ambientes GCP (BigQuery, Dataflow, Dataproc, Pub/Sub, Cloud Storage);Definir padrões de modelagem relacional e dimensional (star schema, snowflake, Data Vault, etc.), com foco em performance e usabilidade;Atuar junto a áreas de negócio para traduzir requisitos em modelos de dados claros e consistentes;Assegurar qualidade, governança, segurança e compliance em todo o ciclo de vida dos dados;Monitorar e otimizar custos e performance em nuvem.Requisitos e Qualificações:Experiência em modelagem de dados (conceitual, lógica e física), especialmente em ambientes analíticos;Conhecimento em SQL e boas práticas de design para Data Warehouse/BigQuery;Experiência com linguagens como Python e Spark para processamento de dados;Domínio do ecossistema GCP (BigQuery, Dataflow, Dataproc, Pub/Sub, Cloud Storage, Composer);Vivência em práticas de CI/CD, versionamento e automação de pipelines;Conhecimento de arquiteturas modernas de dados (data mesh, lakehouse, streaming).Descrição comportamental:Procuramos uma pessoa que:Goste de trabalhar em equipe e seja colaborativa em suas atribuições;Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;Tenha habilidades de resolução de problemas ;Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo ;Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.Big enough to deliver – small enough to care.#VempraGFT#VamosVoarJuntos#ProudToBeGFT