Estamos em busca de um(a) Analista de Dados Sênior para evoluir nossa plataforma de telemetria em tempo real no Google Cloud, construindo pipelines escaláveis que alimentam decisões críticas de negócio. A posição atuará na sustentação e evolução da arquitetura ELT já implementada (Singer + Airflow/Composer + DBT + BigQuery), além da expansão para soluções baseadas em IA/ML.
Responsabilidades e atribuições
Desenvolver e sustentar pipelines de dados para telemetria em tempo real
Criar e manter Singer Taps/Targets personalizados para integração com APIs complexas
Desenvolver e organizar modelos de dados no DBT (RAW → STAGING → MARTS)
Implementar observabilidade e monitoramento de pipelines (DAG Monitoring, Cloud Monitoring)
Administrar infraestrutura de dados via Terraform (GCS, BigQuery, IAM, Composer)
Garantir governança de dados através de CI/CD (Bitbucket Pipelines) e testes de qualidade (SQLFluff)
Evoluir a plataforma para uso de IA/ML com Vertex AI, Gemini (entre outras) e automações Low-Code (n8n)
Requisitos e qualificações
Ter mais de 3 anos de experiência com Python (desenvolvimento de pipelines, Singer Taps ou Airflow)
Experiência de mais de 2 anos utilizando Airflow ou Cloud Composer em ambientes de produção e DBT (modelos incrementais, testes e documentação)
SQL avançado e modelagem dimensional (Star Schema / Snowflake)
Experiência com Google Cloud Platform:
BigQuery
GCS
Dataflow
Pub/Sub
Infraestrutura como código com Terraform
Experiência com GitOps / CI/CD (Bitbucket Pipelines ou similares)
Construção e manutenção de pipelines ELT em ambientes de dados em tempo real
Experiência com Singer Taps/Targets → GCS
Requisitos desejáveis
Experiência com Vertex AI ou Gemini
Experiência com IA generativa (OpenAI, Claude, Gemini)
Conhecimento em roteamento de LLMs (OpenRouter)
Experiência com Reverse ETL
Conhecimento em GKE e Artifact Registry e experiência com n8n
Experiência com Dagster ou Airflow
Benefícios