Buscamos um profissional experiente para trabalhar em uma oportunidade desafiadora.
A principal responsabilidade será projetar e desenvolver web crawlers e scrapers de alta qualidade, garantindo que sejam funcionais, escaláveis e fáceis de manter.
Além disso, identificará e resolverá problemas de desempenho e escalabilidade com crawling distribuído em escala.
Outras responsabilidades incluem escrever códigos limpos e eficazes seguindo as melhores práticas de desenvolvimento, colaborar com equipes de produto, design e operações e realizar code reviews para ajudar outros desenvolvedores a melhorar a qualidade do código.
O ideal é ter experiência com Python 3, conhecimentos protocolos web e prática com scraping e crawling, além de ser fluente em HTML e JavaScript.
* Conhecimento em bancos de dados relacionais e não-relacionais;
* Orquestração de containers (Docker e docker-compose);
* Experiência com controle de versão utilizando Git;
* Conhecimento de cloud AWS;
Também é recomendável ter experiência com metodologias ágeis e prática em Domain-Driven Design (DDD) e Clean Architecture.
O modelo de contratação é PJ e oferecemos benefícios flexíveis, bônus, day off de aniversário, descanso remunerado, rotina remota de trabalho e ambiente descontraído e inovador.
Se você é um profissional motivado e está procurando por uma oportunidade desafiadora, não perca essa chance!