Atribuições:
Desenvolver, evoluir e manter pipelines, processos de ingestão e integração entre sistemas internos e externos, garantindo qualidade, governança, segurança e disponibilidade dos dados utilizados pelas áreas de negócio;
Implementar e otimizar arquiteturas de dados em ambientes cloud (AWS/GCP) e plataformas analíticas (Snowflake, BigQuery), assegurando escalabilidade, automação e aderência às melhores práticas de engenharia;
Atuar de forma consultiva com áreas de negócio, traduzindo requisitos em soluções técnicas, garantindo clareza, paciência no atendimento, comunicação efetiva e alinhamento entre expectativa e entrega;
Automatizar processos, aplicar boas práticas de DataOps, versionamento e governança, monitorar fluxos de dados e atuar preventivamente para garantir a integridade e continuidade dos serviços;
Construir, manter e monitorar integrações com soluções externas, garantindo ingestão contínua, tratamento adequado dos dados e alinhamento técnico com fornecedores e parceiros.
Requisitos:
Sólidos conhecimentos em bancos de dados relacionais e analíticos (SQL Server, BigQuery, Snowflake);
Experiência com Salesforce (integração e consumo de dados);
Domínio de linguagem de programação para engenharia de dados (Python);
Conhecimento em ambientes cloud (AWS e GCP), incluindo S3, Lambda, Cloud Functions, IAM, Dataproc, Pub/Sub e serviços de orquestração;
Experiência com pipelines e integrações de dados (Airflow, Dataflow, Glue, Functions, Cloud Run);
Conhecimento em modelagem de dados, arquitetura de Data Lake e Data Warehouse;
Experiência com ferramentas de atendimento/contact center para ingestão de dados (Genesys, Five9);
Noções de governança, versionamento e boas práticas de DataOps (Git, CI/CD, documentação técnica);
Inglês.