**Description**:
**Proncipais atividades**:
- Desenvolver produtos de dados analíticos excepcionais usando padrões de streaming e ingestão em lote no Google Cloud Platform com princípios sólidos de data warehouse.
- Conhecimento técnico e habilidades de comunicação com a capacidade de defender soluções bem projetadas.
- Colaborar com todas as partes interessadas em análise de dados para agilizar o processo de aquisição, processamento e apresentação de dados.
- Realizar mapeamento de dados, atividades de linhagem de dados e fluxos de informações documentais
- Fornecer análise de dados de veículos conectados para suportar decisões sobre desenvolvimento de novos produtos e melhorias em veículos de produção.
- Realizar análises descritivas/exploratórias/de tendências para obter insights de KPI usando produtos GCP.
- Fornecer visibilidade para problemas de qualidade de dados/veículos/recursos e trabalhar com os proprietários de negócios para corrigir os problemas. Implementar um modelo de governança de dados empresariais e promover ativamente o conceito de proteção de dados, compartilhamento, reutilização, qualidade e padrões.
- Criar fluxos de trabalho robustos e dashboards de visualização usando dados de vários bancos de dados, aplicativos e arquivos.
- Trabalhar em uma pequena equipe ágil para entregar códigos usando Test Driven Development (TDD), integração contínua e implantação contínua (CI/CD).
- Desenvolver, usar e manter ferramentas DevOps como Jenkins/Tekton/GitAction, SonarQube, Checkmarx, Fossa e GitHub para implantar, melhorar e gerenciar software.
- Manter-se atualizado sobre as mais recentes tecnologias de código aberto e contribuir com o direcionamento técnico da empresa, mantendo ao mesmo tempo uma abordagem centrada no cliente.
**Requisitos**:
- Experiência em análise/desenvolvimento de produtos de dados.
- Experiência em desenvolvimento SQL.
- Experiência em desenvolvimento em Java, Python, PySpark ou Scala.
- Experiência em nuvem (preferencialmente GCP), com engenharia de dados/software para criar produtos/visualizações de dados escrevendo códigos/consultas/scripts em escala de produção.
- Experiência trabalhando em serviços nativos do GCP (ou equivalentes), como BigQuery, Google Cloud Storage, Pub/Sub, Dataflow, Dataproc, Cloud Build, Vertex AI, Data Catalog, Data Plex, Looker Studio, etc.
- Experiência com ecossistemas de desenvolvimento, como Tekton, Git e Jenkins, para pipelines de CI/CD.
- Experiência em Airflow para agendamento e orquestração de pipelines de dados.
- Experiência em Terraform para provisionar infraestrutura como código.
- Experiência em arquitetura para avaliar e produzir pipelines de dados para ingestão, curadoria e consumo de dados.
- Inglês Avançado.
- Bacharelado ou diploma equivalente estrangeiro em áreas relacionadas a CS/MIS/Analytics.
Modalidade: 100% Remoto
**Requirements**: