 
        
        QUEM NOS INSPIRA?
 * Alguém que acredite em nossos valores;
 * Com iniciativa;
 * Perfil analítico;
 * Que proponha ideias e soluções.
O QUE A SUZANO ESPERA DE VOCÊ?
 * Graduação em Engenharia, Ciência/Engenharia da Computação, Sistemas de Informação ou áreas correlatas;
 * Pós-graduação/MBA em Engenharia de Dados, Analytics, Arquitetura de Soluções ou Cloud (desejável);
 * Experiência em Engenharia de Dados com entrega em produção;
 * Proficiência em SQL (janelas, CTEs, particionamento), Alteryx, Python para ETL/ELT;
 * Experiência com GCP: BigQuery, Cloud Storage, Pub/Sub, Dataflow/Beam e Cloud Composer/Airflow;
 * Modelagem dimensional e/ou Data Vault, performance tuning em BigQuery e otimização de custos;
 * Imprescindível Inglês avançado.
SERÁ CONSIDERADO COMO UM DIFERENCIAL:
 * Certificações: GCP Professional Data Engineer/Cloud Architect, dbt e Terraform, Alteryx Core/Advanced;
 *. dbt Core/Cloud para transformação e documentação; Great Expectations para qualidade; Data Catalog/Dataplex para lineage/governança;
 * Datastream/CDC, Kafka ou Dataproc/Spark para integrações em tempo real;
 * Power BI (modelagem e publicação) para consumo eficiente; fundamentos de UI/UX para data products e semantic layer.
DADOS:
GS 15
Local: Suzano/SP (atuação hibrida, sendo obrigatório 2x por semana)
Inscrições até: 12/10/2025
O QUE VOCÊ VAI FAZER?
 * Integrações corporativas: Ingerir dados de SAP HANA (OData/REST/JDBC) e ServiceNow (REST/webhooks, OAuth2/JWT), com retries, backoff, idempotência, DLQs e scheduling confiável;
 * Modelagem e camadas de dados: Otimizar BigQuery (particionamento, clustering, materialized views) e prover camada semântica para consumo por Power BI;
 * Qualidade e contratos de dados: Implementar testes de qualidade (ex.: Great Expectations), data contracts, regras de validação, reconciliações e lineage (ex.: Data Catalog/Dataplex), com SLIs/SLOs/SLAs;
 * Segurança & compliance: Aplicar LGPD, data masking, tokenização e row-level security; gerenciar segredos (Secret Manager), papéis/identidades (IAM), VPC-SC e trilhas de auditoria;
 * Observabilidade & confiabilidade: Instrumentar métricas, logs e tracing de dados; criar alertas; conduzir RCA e post-mortems; manter runbooks e playbooks;
 * FinOps de dados: Otimizar custo/desempenho (particionamento, slot management, storage lifecycle, caching), chargeback/showback e rightsizing;
 * DataOps & governança: Padronizar SDLC de dados, code review, testes automatizados, IaC (Terraform) e políticas de release; documentar e disseminar boas práticas;
 * Alteryx no ciclo de dados: Construir fluxos Alteryx Designer/Server para ingestão, transformação, data prep e automações de integração; publicar macros reutilizáveis e garantir padrões de qualidade;
 * Suporte a analytics: Publicar data products e semantic layers para Power BI; orientar squads no uso eficiente de consultas SQL e datasets.