Sobre a NuviaA Nuvia é a plataforma de AI-Powered Growth para vendas B2B. No ano passado, fechamos uma rodada com NXTP Ventures, Gilgamesh Ventures, 16|16 Ventures, LASP Capital e o scout fund da a16z e logo depois adquirimos a Datasaga.Ai (consultoria de dados e IA para vendas) para acelerar nossa operação.Não vendemos promessa, entregamos pipeline. Com isso, nossos clientes têm em média, +35% de conversão e -50% no custo de aquisição de clientes.Agora estamos expandindo o time que vai escalar isso para centenas de empresas (nacionais e internacionais). Se você quer ajudar construir a máquina de vendas do futuro (e não só operar ferramentas) esse é o seu lugar.Seu PapelO Data Analyst (com foco em Data Hacking) (como o próprio nome diz) é uma posição que mistura habilidades de Data Analysis com Growth Hacking e é um elemento chave na implantação do Nuvia Growth System em nossos clientes.Você vai ser a inteligência por trás dos dados que alimentam toda a operação de vendas - nossa e dos nossos clientes. Enquanto o GTM Engineer executa campanhas, você descobre quem são os alvos, quais sinais indicam intenção de compra, e constrói os pipelines que entregam esses dados de forma contínua e escalável.Você vai operar na interseção de dados, scraping e automação. Se você nunca raspou dados de uma fonte não-óbvia, se não sabe o que é um waterfall de enriquecimento, ou se acha que "pegar dados" é exportar CSV do LinkedIn Sales Navigator - essa vaga não é pra você.Seu trabalho não termina na lista. Você vai produtizar e escalar esses pipelines para injetar dados continuamente no nosso Datalake, alimentando AI Agents e operações de dezenas de clientes simultaneamente.O que você vai fazer- Descobrir e mapear fontes de dados para construção de listas qualificadas (APIs públicas, scraping, bases alternativas, sinais de intenção)- Construir pipelines de enriquecimento que transformam nome de empresa em perfil completo com decisores, tecnologias, sinais e scores- Desenvolver e manter scrapers que capturam dados de forma contínua e confiável (sem quebrar toda semana)- Produtizar pipelines de dados para alimentar o Datalake da Nuvia de forma contínua.- Identificar e capturar sinais de intenção (contratações, funding, mudanças de stack, vagas abertas, expansão)- Criar waterfalls de enriquecimento que maximizam cobertura com menor custo (Apollo → Clearbit → Hunter → fallback)- Garantir qualidade e padronização dos dados (deduplicação, normalização, validação)- Documentar fontes, lógicas e pipelines para escalar a operação sem depender de você e para te liberar para construir coisas ainda mais legais (como modelos de leadsocre, assertividade de dados, dentre outros).Quem você é hojeVocê é Data Analyst, BI Analyst, ou Growth Analyst em uma startup B2B que precisava de dados que não existiam prontos — e você foi atrás.Você já construiu scrapers que funcionam, já integrou APIs obscuras, já montou pipelines de enriquecimento que rodaram por meses sem quebrar. Entende que dado bom é dado limpo, atualizado e acionável.Ou:Você era dev/analista que se especializou em dados de growth porque percebeu que a vantagem competitiva está em saber coisas que os outros não sabem. Você já raspou dados que ninguém tinha pedido, só porque viu oportunidade.Requisitos Obrigatórios- 2-4 anos de experiência com dados para growth, sales ops, ou lead gen (B2B)- Python intermediário — scraping (BeautifulSoup, Selenium, Playwright), APIs, manipulação de dados (Pandas), automação de pipelines- SQL intermediário — queries complexas, joins, agregações, CTEs. Você vai viver no banco.- APIs de dados — já consumiu Apollo, Clearbit, Hunter, Crunchbase, LinkedIn (oficial ou não), ou similares- N8N ou Make — workflows de enriquecimento, transformação, roteamento de dados- Experiência real com scraping — já construiu scrapers que rodaram em produção, não só tutorial- Noção de qualidade de dados — sabe o que é deduplicação, normalização, validação, cobertura- Noção de arquitetura de dados — entende conceito de data lake, ETL/ELT, batch vs streamingDiferenciais que pesam- Experiência com Databricks, Spark, ou PySpark- Conhecimento de Delta Lake, Apache Airflow, ou orquestração de pipelines- Já trabalhou com ingestão de dados em data lakes (não só consulta)- Experiência com Clay (enrichment, waterfalls, AI columns)- Conhecimento de Phantombuster, Firecrawl, Apify, Bright Data, ScrapingBee ou ferramentas similares- Experiência com bases de dados alternativas (job boards, registro de empresas, patents, news)- Conhecimento de proxies, rotação de IPs, anti-bot bypass- Background em BI ou analytics (Power BI, Metabase, Looker)- Inglês intermediário (muita documentação e fonte de dados em inglês)O que você NÃO é- Analista de BI que só sabe fazer dashboard bonito mas nunca foi atrás do dado na fonte- Dev que acha scraping "sujo" e prefere esperar API oficial que nunca vai existir- Pessoa que depende de ferramenta pronta: se não existe, você constrói- Quem precisa de especificação detalhada pra começar a resolver um problema- Quem entrega lista uma vez e esquece - aqui é pipeline contínuo com otimização focada em gerar resultados para nossos clientes.Modelo de contratação e Benefícios- Posição remota ou híbrida- Remuneração competitiva com variável por entrega- Contratação PJ- Benefícios de saúde/alimentação- Verba para cursos e formações em Dados/Automações/AI