QUEM NOS INSPIRA?Alguém que acredite em nossos valores;Com iniciativa;Perfil analítico;Que proponha ideias e soluções.O QUE A SUZANO ESPERA DE VOCÊ?Graduação em Engenharia, Ciência/Engenharia da Computação, Sistemas de Informação ou áreas correlatas;Pós-graduação/MBA em Engenharia de Dados, Analytics, Arquitetura de Soluções ou Cloud (desejável);Experiência em Engenharia de Dados com entrega em produção;Proficiência em SQL (janelas, CTEs, particionamento), Alteryx, Python para ETL/ELT;Experiência com GCP: BigQuery, Cloud Storage, Pub/Sub, Dataflow/Beam e Cloud Composer/Airflow;Modelagem dimensional e/ou Data Vault, performance tuning em BigQuery e otimização de custos;Imprescindível Inglês avançado.SERÁ CONSIDERADO COMO UM DIFERENCIAL:Certificações: GCP Professional Data Engineer/Cloud Architect, dbt e Terraform, Alteryx Core/Advanced;. dbt Core/Cloud para transformação e documentação; Great Expectations para qualidade; Data Catalog/Dataplex para lineage/governança;Datastream/CDC, Kafka ou Dataproc/Spark para integrações em tempo real;Power BI (modelagem e publicação) para consumo eficiente; fundamentos de UI/UX para data products e semantic layer.DADOS:GS 15Local: Suzano/SP (atuação hibrida, sendo obrigatório 2x por semana)Inscrições até: 12/10/2025O QUE VOCÊ VAI FAZER?Integrações corporativas: Ingerir dados de SAP HANA (OData/REST/JDBC) e ServiceNow (REST/webhooks, OAuth2/JWT), com retries, backoff, idempotência, DLQs e scheduling confiável;Modelagem e camadas de dados: Otimizar BigQuery (particionamento, clustering, materialized views) e prover camada semântica para consumo por Power BI;Qualidade e contratos de dados: Implementar testes de qualidade (ex.: Great Expectations), data contracts, regras de validação, reconciliações e lineage (ex.: Data Catalog/Dataplex), com SLIs/SLOs/SLAs;Segurança & compliance: Aplicar LGPD, data masking, tokenização e row-level security; gerenciar segredos (Secret Manager), papéis/identidades (IAM), VPC-SC e trilhas de auditoria;Observabilidade & confiabilidade: Instrumentar métricas, logs e tracing de dados; criar alertas; conduzir RCA e post-mortems; manter runbooks e playbooks;FinOps de dados: Otimizar custo/desempenho (particionamento, slot management, storage lifecycle, caching), chargeback/showback e rightsizing;DataOps & governança: Padronizar SDLC de dados, code review, testes automatizados, IaC (Terraform) e políticas de release; documentar e disseminar boas práticas;Alteryx no ciclo de dados: Construir fluxos Alteryx Designer/Server para ingestão, transformação, data prep e automações de integração; publicar macros reutilizáveis e garantir padrões de qualidade;Suporte a analytics: Publicar data products e semantic layers para Power BI; orientar squads no uso eficiente de consultas SQL e datasets.