Fundamentalmente, esta posição envolve a criação de pipelines de inferência para LLMs que garantam práticas robustas e testáveis. As principais responsabilidades incluem implementar orquestração de multi-agentes utilizando LangChain/LangGraph, desenvolver integrações seguras via MCP para conectar aplicações internas, provedores de LLM e serviços de dados.
* Desenvolvimento de buscas e otimizações de sistemas RAG em Bancos Vetoriais;
* Criar e instanciar containers utilizando Docker/Kubernetes;
* Projetar, construir e utilizar bancos de dados PostgreSQL;
* Conhecimento em gerenciamento de prompts e versionamento;
* Garantir práticas de CI/CD, testes automatizados e observabilidade;
* Participar de decisões técnicas e colaborar com equipes multidisciplinares;
* Contribuir para deploy e monitoramento em ambientes cloud.
O profissional ideal terá experiência avançada em Python e desenvolvimento backend, conhecimento profundo em frameworks para IA generativa e uma sólida base em arquitetura de containers. Além disso, é fundamental ter proficiência em bancos de dados relacionais, experiência com construção de ferramentas utilizando MCP, experiência em ambientes cloud e habilidade em implementar práticas de CI/CD.