 
        
        Você se junta a nossa equipe de Engenheiros de Dados em uma missão inovadora e desafiadora!
Sobre o Cargo
Buscamos um profissional experiente para liderar projetos de integração, automação e análise de dados. Se você é habilidoso em desenvolver soluções escaláveis, seguras e eficientes, é hora de se juntar a nós!
Responsabilidades
 1. Projetar e implementar pipelines de dados utilizando BigQuery, Cloud Functions, Dataflow e serviços GCP relacionados.
 2. Desenvolver queries SQL complexas para modelagem, análise e otimização de grandes volumes de dados.
 3. Criar e manter scripts em Python para automação de processos, integrações e transformações de dados.
 4. Utilizar Google Apps Script para automatizar rotinas em Google Workspace (Sheets, Docs, Gmail) e integrar com APIs externas.
 5. Garantir qualidade, governança e consistência dos dados em ambientes de produção e desenvolvimento.
 6. Monitorar pipelines e propor melhorias de performance e custo em soluções baseadas em GCP.
 7. Trabalhar em colaboração com equipes de negócio, analistas e engenheiros de dados para entregar soluções ágeis e de impacto.
 8. Documentar processos técnicos e promover boas práticas de DevOps, versionamento e CI/CD.
Habilidades Necessárias
 * Experiência comprovada em Google Cloud Platform (BigQuery, Cloud Storage, Cloud Functions, Pub/Sub, Dataflow).
 * Proficiência em SQL para análise e modelagem de dados.
 * Experiência sólida em Python para automação, integração e manipulação de dados.
 * Conhecimento em Google Apps Script aplicado à automação de processos em Google Workspace.
 * Familiaridade com Git, versionamento e práticas de DevOps.
 * Experiência em projetos de data warehousing, analytics ou BI.
Diferenciais Desejáveis
 * Certificações GCP (Data Engineer, Cloud Engineer ou equivalentes).
 * Experiência com API integrations (REST, GraphQL).
 * Conhecimentos em machine learning pipelines ou MLOps.
 * Vivência em metodologias ágeis (Scrum, Kanban).