Home Job Listings Categories Locations

Data Analyst

📍 Brazil

Tecnologia Nuvia

Descrição da Vaga

Sobre a Nuvia A Nuvia é a plataforma de AI-Powered Growth para vendas B2B. No ano passado, fechamos uma rodada com NXTP Ventures, Gilgamesh Ventures, 16|16 Ventures, LASP Capital e o scout fund da a16z e logo depois adquirimos a Datasaga.ai (consultoria de dados e IA para vendas) para acelerar nossa operação. Não vendemos promessa, entregamos pipeline. Com isso, nossos clientes têm em média, +35% de conversão e -50% no custo de aquisição de clientes. Agora estamos expandindo o time que vai escalar isso para centenas de empresas (nacionais e internacionais). Se você quer ajudar construir a máquina de vendas do futuro (e não só operar ferramentas) esse é o seu lugar.

Seu Papel

O Data Analyst (com foco em Data Hacking) (como o próprio nome diz) é uma posição que mistura habilidades de Data Analysis com Growth Hacking e é um elemento chave na implantação do Nuvia Growth System em nossos clientes. Você vai ser a

inteligência por trás dos dados

que alimentam toda a operação de vendas - nossa e dos nossos clientes. Enquanto o GTM Engineer executa campanhas, você descobre quem são os alvos, quais sinais indicam intenção de compra, e constrói os pipelines que entregam esses dados de forma contínua e escalável. Você vai operar na interseção de

dados, scraping e automação . Se você nunca raspou dados de uma fonte não-óbvia, se não sabe o que é um waterfall de enriquecimento, ou se acha que "pegar dados" é exportar CSV do LinkedIn Sales Navigator - essa vaga não é pra você. Seu trabalho não termina na lista. Você vai

produtizar e escalar

esses pipelines para injetar dados continuamente no nosso Datalake, alimentando AI Agents e operações de dezenas de clientes simultaneamente.

O que você vai fazer Descobrir e mapear

fontes de dados

para construção de listas qualificadas (APIs públicas, scraping, bases alternativas, sinais de intenção) Construir

pipelines de enriquecimento

que transformam nome de empresa em perfil completo com decisores, tecnologias, sinais e scores Desenvolver e manter

scrapers

que capturam dados de forma contínua e confiável (sem quebrar toda semana) Produtizar pipelines de dados para

alimentar o Datalake

da Nuvia de forma contínua. Identificar e capturar

sinais de intenção

(contratações, funding, mudanças de stack, vagas abertas, expansão) Criar

waterfalls de enriquecimento

que maximizam cobertura com menor custo (Apollo → Clearbit → Hunter → fallback) Garantir

qualidade e padronização

dos dados (deduplicação, normalização, validação) Documentar fontes, lógicas e pipelines para escalar a operação sem depender de você e para te liberar para construir coisas ainda mais legais (como modelos de leadsocre, assertividade de dados, dentre outros).

Quem você é hoje Você é

Data Analyst, BI Analyst, ou Growth Analyst

em uma startup B2B que precisava de dados que não existiam prontos — e você foi atrás. Você já construiu scrapers que funcionam, já integrou APIs obscuras, já montou pipelines de enriquecimento que rodaram por meses sem quebrar. Entende que dado bom é dado limpo, atualizado e acionável. Ou: Você era dev/analista que se especializou em dados de growth porque percebeu que a vantagem competitiva está em

saber coisas que os outros não sabem . Você já raspou dados que ninguém tinha pedido, só porque viu oportunidade.

Requisitos Obrigatórios 2-4 anos

de experiência com dados para growth, sales ops, ou lead gen (B2B) Python intermediário

— scraping (BeautifulSoup, Selenium, Playwright), APIs, manipulação de dados (Pandas), automação de pipelines SQL intermediário

— queries complexas, joins, agregações, CTEs. Você vai viver no banco. APIs de dados

— já consumiu Apollo, Clearbit, Hunter, Crunchbase, LinkedIn (oficial ou não), ou similares N8N ou Make

— workflows de enriquecimento, transformação, roteamento de dados Experiência real com scraping

— já construiu scrapers que rodaram em produção, não só tutorial Noção de qualidade de dados

— sabe o que é deduplicação, normalização, validação, cobertura Noção de arquitetura de dados

— entende conceito de data lake, ETL/ELT, batch vs streaming

Diferenciais que pesam

Experiência com

Databricks, Spark, ou PySpark Conhecimento de

Delta Lake, Apache Airflow, ou orquestração de pipelines Já trabalhou com

ingestão de dados em data lakes

(não só consulta) Experiência com

Clay

(enrichment, waterfalls, AI columns) Conhecimento de

Phantombuster, Firecrawl, Apify, Bright Data, ScrapingBee

ou ferramentas similares Experiência com

bases de dados alternativas

(job boards, registro de empresas, patents, news) Conhecimento de

proxies, rotação de IPs, anti-bot bypass Background em

BI ou analytics

(Power BI, Metabase, Looker) Inglês intermediário (muita documentação e fonte de dados em inglês)

O que você NÃO é Analista de BI que só sabe fazer dashboard bonito mas nunca foi atrás do dado na fonte Dev que acha scraping "sujo" e prefere esperar API oficial que nunca vai existir Pessoa que depende de ferramenta pronta: se não existe, você constrói Quem precisa de especificação detalhada pra começar a resolver um problema Quem entrega lista uma vez e esquece - aqui é pipeline contínuo com otimização focada em gerar resultados para nossos clientes.

Modelo de contratação e Benefícios Posição remota ou híbrida Remuneração competitiva com variável por entrega Contratação PJ Benefícios de saúde/alimentação Verba para cursos e formações em Dados/Automações/AI

Ready to Apply?

Don't miss this opportunity! Apply now and join our team.

Detalhes da Vaga

Data de Publicação: December 17, 2025
Tipo de Vaga: Tecnologia
Localização: Brazil
Company: Nuvia

Ready to Apply?

Don't miss this opportunity! Apply now and join our team.