A Hays está com oportunidades para Engenheiro de Dados ❗🚀
💻Modalidade de atuação: Remota
📑Modalidade de contratação: PJ
⏳Tempo estimado de Projeto: 7 meses, com possibilidade de internalização
📌Requisitos:
✔️ Sólida experiência prática construindo pipelines de dados em batch e streaming usando Dataflow, Pub/Sub e Cloud Storage, com confiabilidade em nível de produção.
✔️Proficiência avançada em BigQuery, incluindo otimização de desempenho, particionamento, clustering e design com consciência de custos (FinOps).
✔️Experiência sólida com orquestração de workflows usando Cloud Composer (Airflow), incluindo gerenciamento de dependências e tratamento de falhas.
✔️Experiência no processamento de dados estruturados e não estruturados, de múltiplas fontes, em batch e em tempo real.
✔️Forte entendimento de modelagem de dados para analytics e data warehousing, incluindo Star Schema e Snowflake schema. Experiência com conceitos de arquitetura como Medallion Architecture (Bronze/Silver/Gold), versionamento de dados (SCD) e particionamento.
✔️Práticas maduras de engenharia de software, incluindo workflows baseados em Git, code reviews, Docker e pipelines de CI/CD usando Cloud Build.
✔️Conhecimento prático de fundamentos de GCP, incluindo IAM, service accounts, conceitos de VPC e rede segura e controle de acesso.
✔️Fortes habilidades de comunicação, com capacidade de explicar conceitos técnicos complexos para stakeholders técnicos e não técnicos.
✔️ Inglês Avançado/Fluente para conversação.
📌 Habilidades e experiências desejáveis:
✔️Familiaridade com arquiteturas de referência, arquitetura de data mesh, design de data products e plataformas de dados orientadas a domínios.
✔️Conhecimento de SAP (ECC, BW, S/4) e integração com sistemas fonte corporativos em grande escala.
✔️Entendimento de segurança de dados, compliance e frameworks de governança, incluindo controles de acesso a dados e considerações regulatórias.
✔️Experiência entregando knowledge transfer (KT) e sessões de treinamento técnico para times de engenharia e operações.
✔️Experiência com confiabilidade e governança de dados, incluindo observabilidade (logging, monitoramento, retries, idempotência), data contracts e evolução de schema, e exposição a desenvolvimento assistido por GenAI e Vertex AI.
✔️Proficiência em Python para processamento de dados, com forte uso de frameworks de testes automatizados (ex.: pytest) e padrões de validação de qualidade de dados.
📌Responsabilidades:
● Construir pipelines de dados priorizados por D&A (com apoio do líder de DE e do Product Owner de Dados);
● Executar e documentar testes unitários para pipelines de dados;
● Apoiar os Product Owners de Dados nos testes de UAT;
● Coordenar o deployment de pipelines de dados (cria pull request, solicita aprovação do negócio, cria plano de cutover, carrega dados históricos, coordena o deployment com fornecedores e solicita agendamentos);
● Traduzir necessidades de negócio em soluções técnicas, sendo responsável por todo o fluxo, do desenvolvimento ao deployment, gerenciando todas as etapas.
● Seguir as políticas de Arquitetura de Solução, Arquitetura de Dados e Governança de Dados;
● Documentar os desenvolvimentos seguindo a documentação de Projeto & Produto (KT);
Candidate-se❗😉
📧
📲 (11)9.7548-9194