A Hays está com oportunidades para Engenheiro de Dados ❗Modalidade de atuação: RemotaModalidade de contratação: PJ⏳ Tempo estimado de Projeto: 7 meses, com possibilidade de internalizaçãoRequisitos:✔️ Sólida experiência prática construindo pipelines de dados em batch e streaming usando Dataflow, Pub/Sub e Cloud Storage, com confiabilidade em nível de produção.✔️Proficiência avançada em BigQuery, incluindo otimização de desempenho, particionamento, clustering e design com consciência de custos (FinOps).✔️Experiência sólida com orquestração de workflows usando Cloud Composer (Airflow), incluindo gerenciamento de dependências e tratamento de falhas.✔️Experiência no processamento de dados estruturados e não estruturados, de múltiplas fontes, em batch e em tempo real.✔️Forte entendimento de modelagem de dados para analytics e data warehousing, incluindo Star Schema e Snowflake schema. Experiência com conceitos de arquitetura como Medallion Architecture (Bronze/Silver/Gold), versionamento de dados (SCD) e particionamento.✔️Práticas maduras de engenharia de software, incluindo workflows baseados em Git, code reviews, Docker e pipelines de CI/CD usando Cloud Build.✔️Conhecimento prático de fundamentos de GCP, incluindo IAM, service accounts, conceitos de VPC e rede segura e controle de acesso.✔️Fortes habilidades de comunicação, com capacidade de explicar conceitos técnicos complexos para stakeholders técnicos e não técnicos.✔️ Inglês Avançado/Fluente para conversação.Habilidades e experiências desejáveis:✔️Familiaridade com arquiteturas de referência, arquitetura de data mesh, design de data products e plataformas de dados orientadas a domínios.✔️Conhecimento de SAP (ECC, BW, S/4) e integração com sistemas fonte corporativos em grande escala.✔️Entendimento de segurança de dados, compliance e frameworks de governança, incluindo controles de acesso a dados e considerações regulatórias.✔️Experiência entregando knowledge transfer (KT) e sessões de treinamento técnico para times de engenharia e operações.✔️Experiência com confiabilidade e governança de dados, incluindo observabilidade (logging, monitoramento, retries, idempotência), data contracts e evolução de schema, e exposição a desenvolvimento assistido por GenAI e Vertex AI.✔️Proficiência em Python para processamento de dados, com forte uso de frameworks de testes automatizados (ex.: pytest) e padrões de validação de qualidade de dados.Responsabilidades:● Construir pipelines de dados priorizados por D&A (com apoio do líder de DE e do Product Owner de Dados);
● Executar e documentar testes unitários para pipelines de dados;
● Apoiar os Product Owners de Dados nos testes de UAT;
● Coordenar o deploymentde pipelines de dados (cria pull request, solicita aprovação do negócio, cria plano de cutover, carrega dados históricos, coordena o deployment com fornecedores e solicita agendamentos);
● Traduzir necessidades de negócio em soluções técnicas, sendo responsável por todo o fluxo, do desenvolvimento ao deployment, gerenciando todas as etapas.● Seguir as políticas de Arquitetura de Solução, Arquitetura de Dados e Governança de Dados;
● Documentar os desenvolvimentos seguindo a documentação de Projeto & Produto (KT);
Candidate-se❗(11)9.7548-9194