Descrição do Cargo
Desenvolver pipelines de inferência para LLMs, incluindo pré e pós-processamento, garantindo boas práticas em termos de desempenho e escalabilidade.
Implementar orquestração de multi-agentes usando LangChain/LangGraph, otimizando a automação das tarefas e aprimorando a eficiência dos processos.
Desenvolver e evoluir integrações seguras via MCP para conectar aplicações internas, provedores de LLM e serviços de dados, garantindo conformidade e proteção de informações sensíveis.
Desenvolver buscas e otimizações de sistemas RAG em Bancos Vetoriais (ChromaDB, MilvusDB, AI Search, Pinecone), fornecendo soluções precisas e personalizadas para o negócio.
Criar e instanciar containers utilizando Docker/Kubernetes, garantindo alta disponibilidade e escalabilidade dos sistemas.
Projetar, construir e utilizar bancos de dados PostgreSQL, garantindo modelagem eficiente, alta performance e integridade dos dados, ao mesmo tempo que oferece flexibilidade e escalabilidade necessárias.
Garantir práticas de CI/CD, testes automatizados e observabilidade dos sistemas, proporcionando uma visão clara da saúde do sistema e permitindo ajustes rápidos.
Conhecimento em gerenciamento de prompts e versionamento (Langfuse, LangSmith), tornando fácil manter os sistemas atualizados e de acordo com as políticas da empresa.
Contribuir para deploy e monitoramento em ambientes cloud, fornecendo suporte contínuo aos desenvolvedores e garantindo que os sistemas sejam sempre estáveis e bem-desempenhados.