Sobre a Nuvia
A Nuvia é a plataforma de AI-Powered Growth para vendas B2B. No ano passado, fechamos uma rodada com NXTP Ventures, Gilgamesh Ventures, 16|16 Ventures, LASP Capital e o scout fund da a16z e logo depois adquirimos a Datasaga.Ai (consultoria de dados e IA para vendas) para acelerar nossa operação.
Não vendemos promessa, entregamos pipeline. Com isso, nossos clientes têm em média, +35% de conversão e -50% no custo de aquisição de clientes.
Agora estamos expandindo o time que vai escalar isso para centenas de empresas (nacionais e internacionais). Se você quer ajudar construir a máquina de vendas do futuro (e não só operar ferramentas) esse é o seu lugar.
Seu Papel
O Data Analyst (com foco em Data Hacking) (como o próprio nome diz) é uma posição que mistura habilidades de Data Analysis com Growth Hacking e é um elemento chave na implantação do Nuvia Growth System em nossos clientes.
Você vai ser a inteligência por trás dos dados que alimentam toda a operação de vendas - nossa e dos nossos clientes. Enquanto o GTM Engineer executa campanhas, você descobre quem são os alvos, quais sinais indicam intenção de compra, e constrói os pipelines que entregam esses dados de forma contínua e escalável.
Você vai operar na interseção de dados, scraping e automação. Se você nunca raspou dados de uma fonte não-óbvia, se não sabe o que é um waterfall de enriquecimento, ou se acha que "pegar dados" é exportar CSV do LinkedIn Sales Navigator - essa vaga não é pra você.
Seu trabalho não termina na lista. Você vai produtizar e escalar esses pipelines para injetar dados continuamente no nosso Datalake, alimentando AI Agents e operações de dezenas de clientes simultaneamente.
O que você vai fazer
* Descobrir e mapear fontes de dados para construção de listas qualificadas (APIs públicas, scraping, bases alternativas, sinais de intenção)
* Construir pipelines de enriquecimento que transformam nome de empresa em perfil completo com decisores, tecnologias, sinais e scores
* Desenvolver e manter scrapers que capturam dados de forma contínua e confiável (sem quebrar toda semana)
* Produtizar pipelines de dados para alimentar o Datalake da Nuvia de forma contínua.
* Identificar e capturar sinais de intenção (contratações, funding, mudanças de stack, vagas abertas, expansão)
* Criar waterfalls de enriquecimento que maximizam cobertura com menor custo (Apollo → Clearbit → Hunter → fallback)
* Garantir qualidade e padronização dos dados (deduplicação, normalização, validação)
* Documentar fontes, lógicas e pipelines para escalar a operação sem depender de você e para te liberar para construir coisas ainda mais legais (como modelos de leadsocre, assertividade de dados, dentre outros).
Quem você é hoje
Você é Data Analyst, BI Analyst, ou Growth Analyst em uma startup B2B que precisava de dados que não existiam prontos — e você foi atrás.
Você já construiu scrapers que funcionam, já integrou APIs obscuras, já montou pipelines de enriquecimento que rodaram por meses sem quebrar. Entende que dado bom é dado limpo, atualizado e acionável.
Ou:
Você era dev/analista que se especializou em dados de growth porque percebeu que a vantagem competitiva está em saber coisas que os outros não sabem. Você já raspou dados que ninguém tinha pedido, só porque viu oportunidade.
Requisitos Obrigatórios
* 2-4 anos de experiência com dados para growth, sales ops, ou lead gen (B2B)
* Python intermediário — scraping (BeautifulSoup, Selenium, Playwright), APIs, manipulação de dados (Pandas), automação de pipelines
* SQL intermediário — queries complexas, joins, agregações, CTEs. Você vai viver no banco.
* APIs de dados — já consumiu Apollo, Clearbit, Hunter, Crunchbase, LinkedIn (oficial ou não), ou similares
* N8N ou Make — workflows de enriquecimento, transformação, roteamento de dados
* Experiência real com scraping — já construiu scrapers que rodaram em produção, não só tutorial
* Noção de qualidade de dados — sabe o que é deduplicação, normalização, validação, cobertura
* Noção de arquitetura de dados — entende conceito de data lake, ETL/ELT, batch vs streaming
Diferenciais que pesam
* Experiência com Databricks, Spark, ou PySpark
* Conhecimento de Delta Lake, Apache Airflow, ou orquestração de pipelines
* Já trabalhou com ingestão de dados em data lakes (não só consulta)
* Experiência com Clay (enrichment, waterfalls, AI columns)
* Conhecimento de Phantombuster, Firecrawl, Apify, Bright Data, ScrapingBee ou ferramentas similares
* Experiência com bases de dados alternativas (job boards, registro de empresas, patents, news)
* Conhecimento de proxies, rotação de IPs, anti-bot bypass
* Background em BI ou analytics (Power BI, Metabase, Looker)
* Inglês intermediário (muita documentação e fonte de dados em inglês)
O que você NÃO é
* Analista de BI que só sabe fazer dashboard bonito mas nunca foi atrás do dado na fonte
* Dev que acha scraping "sujo" e prefere esperar API oficial que nunca vai existir
* Pessoa que depende de ferramenta pronta: se não existe, você constrói
* Quem precisa de especificação detalhada pra começar a resolver um problema
* Quem entrega lista uma vez e esquece - aqui é pipeline contínuo com otimização focada em gerar resultados para nossos clientes.
Modelo de contratação e Benefícios
* Posição remota ou híbrida
* Remuneração competitiva com variável por entrega
* Contratação PJ
* Benefícios de saúde/alimentação
* Verba para cursos e formações em Dados/Automações/AI