Como Desenvolvedor Back-end (Web Scraping / Bots), sua missão será desenvolver bots avançados para web scraping, criando soluções robustas e escaláveis. Você enfrentará desafios como quebra de captchas, uso de proxies e simulação de interações humanas para garantir a eficiência e precisão dos dados. Se você é apaixonado por tecnologia, desafios complexos e deseja contribuir com soluções inovadoras, venha fazer parte da nossa equipe e ajude a levar nossos projetos a novos patamares! Responsabilidades: - Desenvolvimento de bots para coleta automatizada de dados, garantindo eficiência e resiliência. - Soluções para superar barreiras como captchas, bloqueios de IP e verificações anti-bot. - Implementação e otimização de sistemas de roteamento e gerenciamento de proxies (residenciais, datacenter, rotativos, etc.) - Integração de práticas de scraping com diretrizes legais e éticas. - Monitoramento de bots em cenários de alto volume de dados, garantindo desempenho e escalabilidade. - Realizar logging e debugging para análise e melhorias contínuas dos bots. - Metodologias de desenvolvimento ágil (SCRUM ou similares). Requisitos: - Linguagem: Python. - Experiência em desenvolvimento, com foco em automação e scraping. - Frameworks e bibliotecas de scraping: Scrapy, Selenium. - Experiência com Playwright ou Puppeteer para scraping baseado em navegadores. - Quebra de captchas: Conhecimento em OCR (Tesseract) e integração com serviços como 2Captcha, Anti-Captcha, DeathByCaptcha). - Familiaridade com soluções de machine learning para quebra de captchas customizados. - Gerenciamento de proxies: Experiência com Rotating Proxies e pools de proxies. - Gerenciamento de Headers e Cookies: Para simular requisições humanas. - Familiaridade com mecanismos de proteção (Cloudflare) e estratégias para superá-los. - Experiência com WebSockets e scraping em tempo real. - Utilização de containers (Docker) para deploy e gerenciamento de bots. - Desenvolvimento em ambientes Unix/Linux. Desejável: - Conhecimento em linguagem de programação Ruby. - Experiência em ferramentas de análise de tráfego HTTP, como Fiddler, Wireshark ou Burp Suite. - Noções de segurança da informação e estratégias para contornar medidas anti-scraping. - Familiaridade com crawling distribuído e sistemas de fila, como RabbitMQ, Kafka ou Celery. - Experiência em cloud computing (AWS, Azure, GCP) para hospedagem e escalabilidade dos bots. - Desenvolvimento de APIs RESTful para integração com sistemas externos.