 
        
        Buscamos um profissional motivado para trabalhar em uma equipe de desenvolvimento. A posição envolve projetar, desenvolver e manter web crawlers e scrapers. Além disso, será responsável por identificar e resolver problemas de desempenho e escalabilidade com crawling distribuído em escala.
As principais responsabilidades incluem:
 * Projetar e desenvolver soluções de scraping e crawling eficientes;
 * Identificar e resolver problemas de desempenho e escalabilidade;
 * Escrever códigos limpos, de alta qualidade e fácil manutenção seguindo as boas práticas de desenvolvimento;
 * Trabalhar em estreita colaboração com equipes de produto, design e operações;
 * Participar ativamente em discussões de arquitetura e tecnologias;
Para atuar nessa posição, é necessário ter:
 * Sólida experiência com Python 3;
 * Conhecimentos protocolos web;
 * Experiência prática com scraping e crawling (ex: requests, BeautifulSoup, Scrapy, Playwright, Selenium, etc.);
 * Experiência com HTML e JavaScript;
 * Conhecimento em bancos de dados relacionais e não-relacionais;
 * Orquestração de containers (Docker e docker-compose);
 * Experiência com controle de versão utilizando Git;
 * Conhecimento de cloud AWS.