Contratação: PJ (7 meses)
Local: Remoto
Horário de trabalho: 08h30 às 18h00
Necessário inglês avançado/fluente.
Suas responsabilidades incluem:
* Construir pipelines de dados priorizados por D&A (com apoio do líder de DE e do Data Product Owner);
* Realizar e documentar testes unitários para pipelines de dados;
* Apoiar os Data Product Owners nos testes de UAT;
* Coordenar a implantação de pipelines de dados (criar pull request, solicitar aprovação do negócio, criar plano de cutover, carregar dados históricos, coordenar a implantação com fornecedores e solicitar agendamentos);
* Traduzir necessidades de negócio em soluções técnicas, sendo responsável por todo o fluxo de trabalho, do desenvolvimento até a implantação, gerenciando todas as etapas;
* Seguir as políticas de Arquitetura de Solução, Arquitetura de Dados e Governança de Dados;
* Documentar os desenvolvimentos conforme a documentação de Projeto e Produto (KT).
Requisitos mínimos:
* Inglês Avançado/Fluente;
* Forte experiência prática na construção de pipelines de dados batch e streaming usando Dataflow, Pub/Sub e Cloud Storage, com confiabilidade em nível de produção.
* Proficiência avançada em BigQuery, incluindo otimização de performance, particionamento, clustering e design com foco em custos (FinOps).
* Experiência sólida com orquestração de workflows usando Cloud Composer (Airflow), incluindo gerenciamento de dependências e tratamento de falhas.
* Experiência no processamento de dados estruturados e não estruturados de múltiplas fontes, em batch e em tempo real.
* Forte compreensão de modelagem de dados para analytics e data warehousing, incluindo Star Schema e Snowflake Schema. Experiência com conceitos arquiteturais como Medallion Architecture (Bronze/Prata/Ouro), versionamento de dados (SCD) e particionamento.
* Práticas maduras de engenharia de software, incluindo workflows baseados em Git, code reviews, Docker e pipelines de CI/CD usando Cloud Build.
* Conhecimento prático dos fundamentos do GCP, incluindo IAM, contas de serviço, conceitos de VPC, além de redes seguras e controle de acesso.
* Fortes habilidades de comunicação, com capacidade de explicar conceitos técnicos complexos para públicos técnicos e não técnicos. Proficiência de trabalho em inglês para interação com equipes técnicas fora do Brasil.
Habilidades e experiências desejáveis:
* Familiaridade com arquiteturas de referência, arquitetura data mesh, design de data products e plataformas de dados orientadas a domínios.
* Conhecimento de SAP (ECC, BW, S/4) e integração com sistemas corporativos de grande escala.
* Entendimento de frameworks de segurança, compliance e governança de dados, incluindo controle de acesso e aspectos regulatórios.
* Experiência na condução de transferências de conhecimento (KT) e treinamentos técnicos para equipes de engenharia e operações.
* Experiência com confiabilidade e governança de dados, incluindo observabilidade (logs, monitoramento, retries, idempotência), contratos de dados e evolução de schemas, além de exposição a desenvolvimento assistido por GenAI e Vertex AI.
* Proficiência em Python para processamento de dados, com forte uso de frameworks de testes automatizados (ex.: pytest) e padrões de validação de qualidade de dados.