Sobre a NuviaA Nuvia é a plataforma de AI-Powered Growth para vendas B2B. No ano passado, fechamos uma rodada com NXTP Ventures, Gilgamesh Ventures, 16|16 Ventures, LASP Capital e o scout fund da a16z e logo depois adquirimos a Datasaga.ai (consultoria de dados e IA para vendas) para acelerar nossa operação.Não vendemos promessa, entregamos pipeline. Com isso, nossos clientes têm em média, +35% de conversão e -50% no custo de aquisição de clientes.Agora estamos expandindo o time que vai escalar isso para centenas de empresas (nacionais e internacionais). Se você quer ajudar construir a máquina de vendas do futuro (e não só operar ferramentas) esse é o seu lugar.Seu PapelO Data Analyst (com foco em Data Hacking) (como o próprio nome diz) é uma posição que mistura habilidades de Data Analysis com Growth Hacking e é um elemento chave na implantação do Nuvia Growth System em nossos clientes. Você vai ser a inteligência por trás dos dados que alimentam toda a operação de vendas - nossa e dos nossos clientes. Enquanto o GTM Engineer executa campanhas, você descobre quem são os alvos, quais sinais indicam intenção de compra, e constrói os pipelines que entregam esses dados de forma contínua e escalável.Você vai operar na interseção de dados, scraping e automação. Se você nunca raspou dados de uma fonte não-óbvia, se não sabe o que é um waterfall de enriquecimento, ou se acha que "pegar dados" é exportar CSV do LinkedIn Sales Navigator - essa vaga não é pra você.Seu trabalho não termina na lista. Você vai produtizar e escalar esses pipelines para injetar dados continuamente no nosso Datalake, alimentando AI Agents e operações de dezenas de clientes simultaneamente.O que você vai fazerDescobrir e mapear fontes de dados para construção de listas qualificadas (APIs públicas, scraping, bases alternativas, sinais de intenção)Construir pipelines de enriquecimento que transformam nome de empresa em perfil completo com decisores, tecnologias, sinais e scoresDesenvolver e manter scrapers que capturam dados de forma contínua e confiável (sem quebrar toda semana)Produtizar pipelines de dados para alimentar o Datalake da Nuvia de forma contínua.Identificar e capturar sinais de intenção (contratações, funding, mudanças de stack, vagas abertas, expansão)Criar waterfalls de enriquecimento que maximizam cobertura com menor custo (Apollo → Clearbit → Hunter → fallback)Garantir qualidade e padronização dos dados (deduplicação, normalização, validação)Documentar fontes, lógicas e pipelines para escalar a operação sem depender de você e para te liberar para construir coisas ainda mais legais (como modelos de leadsocre, assertividade de dados, dentre outros). Quem você é hojeVocê é Data Analyst, BI Analyst, ou Growth Analyst em uma startup B2B que precisava de dados que não existiam prontos — e você foi atrás.Você já construiu scrapers que funcionam, já integrou APIs obscuras, já montou pipelines de enriquecimento que rodaram por meses sem quebrar. Entende que dado bom é dado limpo, atualizado e acionável.Ou: Você era dev/analista que se especializou em dados de growth porque percebeu que a vantagem competitiva está em saber coisas que os outros não sabem. Você já raspou dados que ninguém tinha pedido, só porque viu oportunidade.Requisitos Obrigatórios2-4 anos de experiência com dados para growth, sales ops, ou lead gen (B2B)Python intermediário — scraping (BeautifulSoup, Selenium, Playwright), APIs, manipulação de dados (Pandas), automação de pipelinesSQL intermediário — queries complexas, joins, agregações, CTEs. Você vai viver no banco.APIs de dados — já consumiu Apollo, Clearbit, Hunter, Crunchbase, LinkedIn (oficial ou não), ou similaresN8N ou Make — workflows de enriquecimento, transformação, roteamento de dadosExperiência real com scraping — já construiu scrapers que rodaram em produção, não só tutorialNoção de qualidade de dados — sabe o que é deduplicação, normalização, validação, coberturaNoção de arquitetura de dados — entende conceito de data lake, ETL/ELT, batch vs streamingDiferenciais que pesamExperiência com Databricks, Spark, ou PySparkConhecimento de Delta Lake, Apache Airflow, ou orquestração de pipelinesJá trabalhou com ingestão de dados em data lakes (não só consulta)Experiência com Clay (enrichment, waterfalls, AI columns)Conhecimento de Phantombuster, Firecrawl, Apify, Bright Data, ScrapingBee ou ferramentas similaresExperiência com bases de dados alternativas (job boards, registro de empresas, patents, news)Conhecimento de proxies, rotação de IPs, anti-bot bypassBackground em BI ou analytics (Power BI, Metabase, Looker)Inglês intermediário (muita documentação e fonte de dados em inglês)O que você NÃO éAnalista de BI que só sabe fazer dashboard bonito mas nunca foi atrás do dado na fonteDev que acha scraping "sujo" e prefere esperar API oficial que nunca vai existirPessoa que depende de ferramenta pronta: se não existe, você constróiQuem precisa de especificação detalhada pra começar a resolver um problemaQuem entrega lista uma vez e esquece - aqui é pipeline contínuo com otimização focada em gerar resultados para nossos clientes.Modelo de contratação e BenefíciosPosição remota ou híbridaRemuneração competitiva com variável por entregaContratação PJBenefícios de saúde/alimentaçãoVerba para cursos e formações em Dados/Automações/AI