Description: Proncipais atividades: - Desenvolver produtos de dados analíticos excepcionais usando padrões de streaming e ingestão em lote no Google Cloud Platform com princípios sólidos de data warehouse. - Conhecimento técnico e habilidades de comunicação com a capacidade de defender soluções bem projetadas. - Colaborar com todas as partes interessadas em análise de dados para agilizar o processo de aquisição, processamento e apresentação de dados. - Realizar mapeamento de dados, atividades de linhagem de dados e fluxos de informações documentais - Fornecer análise de dados de veículos conectados para suportar decisões sobre desenvolvimento de novos produtos e melhorias em veículos de produção. - Realizar análises descritivas/exploratórias/de tendências para obter insights de KPI usando produtos GCP. - Fornecer visibilidade para problemas de qualidade de dados/veículos/recursos e trabalhar com os proprietários de negócios para corrigir os problemas. Implementar um modelo de governança de dados empresariais e promover ativamente o conceito de proteção de dados, compartilhamento, reutilização, qualidade e padrões. - Criar fluxos de trabalho robustos e dashboards de visualização usando dados de vários bancos de dados, aplicativos e arquivos. - Trabalhar em uma pequena equipe ágil para entregar códigos usando Test Driven Development (TDD), integração contínua e implantação contínua (CI/CD). - Desenvolver, usar e manter ferramentas DevOps como Jenkins/Tekton/GitAction, SonarQube, Checkmarx, Fossa e GitHub para implantar, melhorar e gerenciar software. - Manter-se atualizado sobre as mais recentes tecnologias de código aberto e contribuir com o direcionamento técnico da empresa, mantendo ao mesmo tempo uma abordagem centrada no cliente. Requisitos: - Experiência em análise/desenvolvimento de produtos de dados. - Experiência em desenvolvimento SQL. - Experiência em desenvolvimento em Java, Python, PySpark ou Scala. - Experiência em nuvem (preferencialmente GCP), com engenharia de dados/software para criar produtos/visualizações de dados escrevendo códigos/consultas/scripts em escala de produção. - Experiência trabalhando em serviços nativos do GCP (ou equivalentes), como BigQuery, Google Cloud Storage, Pub/Sub, Dataflow, Dataproc, Cloud Build, Vertex AI, Data Catalog, Data Plex, Looker Studio, etc. - Experiência com ecossistemas de desenvolvimento, como Tekton, Git e Jenkins, para pipelines de CI/CD. - Experiência em Airflow para agendamento e orquestração de pipelines de dados. - Experiência em Terraform para provisionar infraestrutura como código. - Experiência em arquitetura para avaliar e produzir pipelines de dados para ingestão, curadoria e consumo de dados. - Inglês Avançado. - Bacharelado ou diploma equivalente estrangeiro em áreas relacionadas a CS/MIS/Analytics. Modalidade: 100% Remoto Requirements: