Descrição da Vaga
Sobre a Nuvia
A Nuvia é a plataforma de AI-Powered Growth para vendas B2B. No ano passado, fechamos uma rodada com NXTP Ventures, Gilgamesh Ventures, 16|16 Ventures, LASP Capital e o scout fund da a16z e logo depois adquirimos a Datasaga.ai (consultoria de dados e IA para vendas) para acelerar nossa operação.
Não vendemos promessa, entregamos pipeline. Com isso, nossos clientes têm em média, +35% de conversão e -50% no custo de aquisição de clientes.
Agora estamos expandindo o time que vai escalar isso para centenas de empresas (nacionais e internacionais). Se você quer ajudar construir a máquina de vendas do futuro (e não só operar ferramentas) esse é o seu lugar.
Seu Papel
O Data Analyst (com foco em Data Hacking) (como o próprio nome diz) é uma posição que mistura habilidades de Data Analysis com Growth Hacking e é um elemento chave na implantação do Nuvia Growth System em nossos clientes.
Você vai ser a
inteligência por trás dos dados
que alimentam toda a operação de vendas - nossa e dos nossos clientes. Enquanto o GTM Engineer executa campanhas, você descobre quem são os alvos, quais sinais indicam intenção de compra, e constrói os pipelines que entregam esses dados de forma contínua e escalável.
Você vai operar na interseção de
dados, scraping e automação . Se você nunca raspou dados de uma fonte não-óbvia, se não sabe o que é um waterfall de enriquecimento, ou se acha que "pegar dados" é exportar CSV do LinkedIn Sales Navigator - essa vaga não é pra você.
Seu trabalho não termina na lista. Você vai
produtizar e escalar
esses pipelines para injetar dados continuamente no nosso Datalake, alimentando AI Agents e operações de dezenas de clientes simultaneamente.
O que você vai fazer
Descobrir e mapear
fontes de dados
para construção de listas qualificadas (APIs públicas, scraping, bases alternativas, sinais de intenção)
Construir
pipelines de enriquecimento
que transformam nome de empresa em perfil completo com decisores, tecnologias, sinais e scores
Desenvolver e manter
scrapers
que capturam dados de forma contínua e confiável (sem quebrar toda semana)
Produtizar pipelines de dados para
alimentar o Datalake
da Nuvia de forma contínua.
Identificar e capturar
sinais de intenção
(contratações, funding, mudanças de stack, vagas abertas, expansão)
Criar
waterfalls de enriquecimento
que maximizam cobertura com menor custo (Apollo → Clearbit → Hunter → fallback)
Garantir
qualidade e padronização
dos dados (deduplicação, normalização, validação)
Documentar fontes, lógicas e pipelines para escalar a operação sem depender de você e para te liberar para construir coisas ainda mais legais (como modelos de leadsocre, assertividade de dados, dentre outros).
Quem você é hoje
Você é
Data Analyst, BI Analyst, ou Growth Analyst
em uma startup B2B que precisava de dados que não existiam prontos — e você foi atrás.
Você já construiu scrapers que funcionam, já integrou APIs obscuras, já montou pipelines de enriquecimento que rodaram por meses sem quebrar. Entende que dado bom é dado limpo, atualizado e acionável.
Ou:
Você era dev/analista que se especializou em dados de growth porque percebeu que a vantagem competitiva está em
saber coisas que os outros não sabem . Você já raspou dados que ninguém tinha pedido, só porque viu oportunidade.
Requisitos Obrigatórios
2-4 anos
de experiência com dados para growth, sales ops, ou lead gen (B2B)
Python intermediário
— scraping (BeautifulSoup, Selenium, Playwright), APIs, manipulação de dados (Pandas), automação de pipelines
SQL intermediário
— queries complexas, joins, agregações, CTEs. Você vai viver no banco.
APIs de dados
— já consumiu Apollo, Clearbit, Hunter, Crunchbase, LinkedIn (oficial ou não), ou similares
N8N ou Make
— workflows de enriquecimento, transformação, roteamento de dados
Experiência real com scraping
— já construiu scrapers que rodaram em produção, não só tutorial
Noção de qualidade de dados
— sabe o que é deduplicação, normalização, validação, cobertura
Noção de arquitetura de dados
— entende conceito de data lake, ETL/ELT, batch vs streaming
Diferenciais que pesam
Experiência com
Databricks, Spark, ou PySpark
Conhecimento de
Delta Lake, Apache Airflow, ou orquestração de pipelines
Já trabalhou com
ingestão de dados em data lakes
(não só consulta)
Experiência com
Clay
(enrichment, waterfalls, AI columns)
Conhecimento de
Phantombuster, Firecrawl, Apify, Bright Data, ScrapingBee
ou ferramentas similares
Experiência com
bases de dados alternativas
(job boards, registro de empresas, patents, news)
Conhecimento de
proxies, rotação de IPs, anti-bot bypass
Background em
BI ou analytics
(Power BI, Metabase, Looker)
Inglês intermediário (muita documentação e fonte de dados em inglês)
O que você NÃO é
Analista de BI que só sabe fazer dashboard bonito mas nunca foi atrás do dado na fonte
Dev que acha scraping "sujo" e prefere esperar API oficial que nunca vai existir
Pessoa que depende de ferramenta pronta: se não existe, você constrói
Quem precisa de especificação detalhada pra começar a resolver um problema
Quem entrega lista uma vez e esquece - aqui é pipeline contínuo com otimização focada em gerar resultados para nossos clientes.
Modelo de contratação e Benefícios
Posição remota ou híbrida
Remuneração competitiva com variável por entrega
Contratação PJ
Benefícios de saúde/alimentação
Verba para cursos e formações em Dados/Automações/AI