Responsabilidades e atribuições
Modelar e estruturar dados para suportar analytics e produtos de dados
Desenvolver e otimizar queries SQL para extração e transformação de dados
Desenvolver pipelines de dados e automações utilizando Python
Construir e manter pipelines de ingestão e transformação de dados (ETL/ELT)
Trabalhar com Google Cloud Platform para processamento e armazenamento de dados
Construir e manter modelos de dados utilizando dbt
Integrar e estruturar dados para plataformas de Customer Data Platform (CDP)
Desenvolver análises
Trabalhar com Big Data e Data Mining para identificação de padrões e insights
Versionar código e colaborar em projetos utilizando GitHub
Requisitos e qualificações
Formação em Ciência da Computação, Engenharia, Estatística ou áreas relacionadas
Experiência sólida com SQL e Python
Experiência na construção de pipelines de dados (Airflow, Airbyte ou similares)
Experiência com Google Cloud Platform (BigQuery, Cloud Run, Pub/Sub, Firestore, Vertex AI)
Experiência com modelagem e transformação de dados utilizando dbt
Experiência com RAGs e DAGs para criação de pipelines de dados
Experiência com bancos vetoriais ou grafos (Neo4J, pgvector, ElasticSearch etc.)
Experiência ou conhecimento em Customer Data Platforms (CDP) ou integração de dados de cliente
Boa comunicação e colaboração em equipe
Capacidade de resolver problemas de forma analítica e proativa