AHaysestá com oportunidades paraEngenheiro de DadosModalidade de atuação:Remota Modalidade de contratação:PJ Tempo estimado de Projeto:7 meses, com possibilidade de internalizaçãoRequisitos: Sólida experiência prática construindo pipelines de dados em batch e streaming usando Dataflow, Pub/Sub e Cloud Storage, com confiabilidade em nível de produção. Proficiência avançada em BigQuery, incluindo otimização de desempenho, particionamento, clustering e design com consciência de custos (FinOps). Experiência sólida com orquestração de workflows usando Cloud Composer (Airflow), incluindo gerenciamento de dependências e tratamento de falhas. Experiência no processamento de dados estruturados e não estruturados, de múltiplas fontes, em batch e em tempo real. Forte entendimento de modelagem de dados para analytics e data warehousing, incluindo Star Schema e Snowflake schema. Experiência com conceitos de arquitetura como Medallion Architecture (Bronze/Silver/Gold), versionamento de dados (SCD) e particionamento. Práticas maduras de engenharia de software, incluindo workflows baseados em Git, code reviews, Docker e pipelines de CI/CD usando Cloud Build. Conhecimento prático de fundamentos de GCP, incluindo IAM, service accounts, conceitos de VPC e rede segura e controle de acesso. Fortes habilidades de comunicação, com capacidade de explicar conceitos técnicos complexos para stakeholders técnicos e não técnicos. Inglês Avançado/Fluente para conversação.Habilidades e experiências desejáveis:Familiaridade com arquiteturas de referência, arquitetura de data mesh, design de data products e plataformas de dados orientadas a domínios. Conhecimento de SAP (ECC, BW, S/4) e integração com sistemas fonte corporativos em grande escala. Entendimento de segurança de dados, compliance e frameworks de governança, incluindo controles de acesso a dados e considerações regulatórias. Experiência entregando knowledge transfer (KT) e sessões de treinamento técnico para times de engenharia e operações. Experiência com confiabilidade e governança de dados, incluindo observabilidade (logging, monitoramento, retries, idempotência), data contracts e evolução de schema, e exposição a desenvolvimento assistido por GenAI e Vertex AI. Proficiência em Python para processamento de dados, com forte uso de frameworks de testes automatizados (ex.: pytest) e padrões de validação de qualidade de dados.Responsabilidades:● Construir pipelines de dados priorizados por D&A (com apoio do líder de DE e do Product Owner de Dados); ● Executar e documentar testes unitários para pipelines de dados; ● Apoiar os Product Owners de Dados nos testes de UAT; ● Coordenar o deployment de pipelines de dados (cria pull request, solicita aprovação do negócio, cria plano de cutover, carrega dados históricos, coordena o deployment com fornecedores e solicita agendamentos); ● Traduzir necessidades de negócio em soluções técnicas, sendo responsável por todo o fluxo, do desenvolvimento ao deployment, gerenciando todas as etapas. ● Seguir as políticas de Arquitetura de Solução, Arquitetura de Dados e Governança de Dados; ● Documentar os desenvolvimentos seguindo a documentação de Projeto & Produto (KT);Candidate-se(11)9.7548-9194