 
        
        Uma empresa está procurando por um profissional para desenvolver web crawlers e scrapers.
A pessoa será responsável por identificar e resolver problemas de desempenho e escalabilidade, garantir que os códigos sejam limpos e participar em discussões de arquitetura e tecnologias.
Para isso, é necessário ter experiência com Python 3, conhecimentos em protocolos web e scraping, bancos de dados relacionais e não-relacionais, orquestração de containers e controle de versão com Git e conhecimento em cloud AWS.
É também recomendável ter habilidades em metodologias ágeis e Domain-Driven Design, desenvolvimento de CI/CD com github actions, testes automatizados e ferramentas de integração contínua e design Patterns.
Além disso, oferecemos uma flexível política de benefícios, bônus (Participação nos Resultados), day off de aniversário, descanso remunerado, rotina remota de trabalho e ambiente de trabalho descontraído e inovador.
Com a nossa equipe você vai crescer pessoal e profissionalmente.