Temos como propósito cuidar dos nossos colaboradores para que eles cuidem dos nossos clientes. Somos GPTW na essência e trabalhamos com integridade, transparência e gostamos muito de gente. Se você é protagonista e está em busca de se desenvolver continuamente, venha para a Alianzo! Descrição da vaga Atuar na construção e evolução da camada de dados da plataforma ALZ AI OS, desenvolvendo pipelines de ingestão, modelagem de Data Products e arquiteturas de dados que suportam inteligência artificial, automação e geração de insights estratégicos. Essa posição terá papel fundamental na criação da fundação de dados da plataforma, garantindo qualidade, governança e escalabilidade das informações utilizadas pelos agentes de IA. Responsabilidades e atribuições: Quais são as responsabilidades para essa função? Ingestão e integração de dados Projetar e implementar pipelines de ingestão a partir de sistemas empresariais (ERPs, CRMs, APIs, bancos de dados e repositórios de documentos); Construir conectores para fontes estruturadas e não estruturadas; Integrar processos de ingestão com ferramentas de processamento de documentos e indexação semântica. Modelagem e construção de Data Products Modelar e construir Data Products com foco em qualidade, governança e versionamento de schema; Desenvolver pipelines de transformação de dados garantindo rastreabilidade e documentação; Implementar testes automatizados de qualidade de dados dentro dos pipelines; Manter o catálogo de dados atualizado e acessível para consumo por times de engenharia e IA. Knowledge Graph e camada semântica Construir e manter pipelines que populam o Knowledge Graph da plataforma a partir dos Data Products; Colaborar na modelagem de entidades, classes e relações da ontologia de negócio; Garantir consistência e integridade das informações utilizadas pelos agentes de IA. Governança e operação de dados Garantir qualidade, consistência e rastreabilidade dos dados em toda a plataforma; Monitorar pipelines em produção e garantir atualização dentro dos SLAs definidos; Contribuir para a construção de uma infraestrutura de dados escalável e segura. Requisitos e qualificações: O que iremos avaliar? Experiência em Engenharia de Dados com Python; Experiência na construção e operação de pipelines de dados em ambientes de produção; Conhecimento sólido em modelagem de dados, qualidade de dados e governança; Experiência com arquiteturas de Data Lake ou Data Lakehouse em cloud; Experiência com ferramentas de transformação de dados como dbt ou similares; Familiaridade com serviços de cloud (preferencialmente Azure ou equivalentes); Capacidade de trabalhar em colaboração com times de produto, engenharia e IA. Diferenciais: Experiência com arquiteturas de Data Lakehouse e formatos de tabela com suporte a schema evolution e time travel ; Experiência integrando pipelines de dados com sistemas de IA (vector stores, knowledge graphs ou feature stores); Experiência com bancos de dados de grafos e modelagem de entidades de negócio; Experiência com processamento de documentos não estruturados; Vivência com catálogos de dados ou práticas de Data Products / Data Mesh; Experiência em ambientes de startup ou projetos zero-to-one. O que buscamos? Procuramos pessoas com atitude de dono, que acreditam no negócio, fazem acontecer e são automotivados(as); Que sejam protagonistas e responsáveis pelos seus resultados; Que trabalhem com qualidade, buscando a excelência e inovação. Se você possui esse perfil, pode ter certeza de que você se aplica para esta vaga! LI-Hybrid