Responsabilidades e atribuiçõesModelar e estruturar dados para suportar analytics e produtos de dadosDesenvolver e otimizar queries SQL para extração e transformação de dadosDesenvolver pipelines de dados e automações utilizando PythonConstruir e manter pipelines de ingestão e transformação de dados (ETL/ELT)Trabalhar com Google Cloud Platform para processamento e armazenamento de dadosConstruir e manter modelos de dados utilizando dbtIntegrar e estruturar dados para plataformas de Customer Data Platform (CDP)Desenvolver análisesTrabalhar com Big Data e Data Mining para identificação de padrões e insightsVersionar código e colaborar em projetos utilizando GitHubRequisitos e qualificaçõesFormação em Ciência da Computação, Engenharia, Estatística ou áreas relacionadasExperiência sólida com SQL e PythonExperiência na construção de pipelines de dados (Airflow, Airbyte ou similares)Experiência com Google Cloud Platform (BigQuery, Cloud Run, Pub/Sub, Firestore, Vertex AI)Experiência com modelagem e transformação de dados utilizando dbtExperiência com RAGs e DAGs para criação de pipelines de dadosExperiência com bancos vetoriais ou grafos (Neo4J, pgvector, ElasticSearch etc.)Experiência ou conhecimento em Customer Data Platforms (CDP) ou integração de dados de clienteBoa comunicação e colaboração em equipeCapacidade de resolver problemas de forma analítica e proativa