Home Job Listings Categories Locations

Data Analyst

📍 Brazil

Tecnologia Nuvia

Descrição da Vaga

Sobre a Nuvia

A Nuvia é a plataforma de AI-Powered Growth para vendas B2B. No ano passado, fechamos uma rodada com NXTP Ventures, Gilgamesh Ventures, 16|16 Ventures, LASP Capital e o scout fund da a16z e logo depois adquirimos a Datasaga.ai (consultoria de dados e IA para vendas) para acelerar nossa operação. Não vendemos promessa, entregamos pipeline. Com isso, nossos clientes têm em média, +35% de conversão e -50% no custo de aquisição de clientes. Agora estamos expandindo o time que vai escalar isso para centenas de empresas (nacionais e internacionais). Se você quer ajudar construir a máquina de vendas do futuro (e não só operar ferramentas) esse é o seu lugar. Seu Papel O Data Analyst (com foco em Data Hacking) (como o próprio nome diz) é uma posição que mistura habilidades de Data Analysis com Growth Hacking e é um elemento chave na implantação do Nuvia Growth System em nossos clientes. Você vai ser a inteligência por trás dos dados que alimentam toda a operação de vendas - nossa e dos nossos clientes. Enquanto o GTM Engineer executa campanhas, você descobre quem são os alvos, quais sinais indicam intenção de compra, e constrói os pipelines que entregam esses dados de forma contínua e escalável. Você vai operar na interseção de dados, scraping e automação. Se você nunca raspou dados de uma fonte não-óbvia, se não sabe o que é um waterfall de enriquecimento, ou se acha que "pegar dados" é exportar CSV do LinkedIn Sales Navigator - essa vaga não é pra você. Seu trabalho não termina na lista. Você vai produtizar e escalar esses pipelines para injetar dados continuamente no nosso Datalake, alimentando AI Agents e operações de dezenas de clientes simultaneamente. O que você vai fazer Descobrir e mapear fontes de dados para construção de listas qualificadas (APIs públicas, scraping, bases alternativas, sinais de intenção) Construir pipelines de enriquecimento que transformam nome de empresa em perfil completo com decisores, tecnologias, sinais e scores Desenvolver e manter scrapers que capturam dados de forma contínua e confiável (sem quebrar toda semana) Produtizar pipelines de dados para alimentar o Datalake da Nuvia de forma contínua. Identificar e capturar sinais de intenção (contratações, funding, mudanças de stack, vagas abertas, expansão) Criar waterfalls de enriquecimento que maximizam cobertura com menor custo (Apollo → Clearbit → Hunter → fallback) Garantir qualidade e padronização dos dados (deduplicação, normalização, validação) Documentar fontes, lógicas e pipelines para escalar a operação sem depender de você e para te liberar para construir coisas ainda mais legais (como modelos de leadsocre, assertividade de dados, dentre outros). Quem você é hoje Você é Data Analyst, BI Analyst, ou Growth Analyst em uma startup B2B que precisava de dados que não existiam prontos — e você foi atrás. Você já construiu scrapers que funcionam, já integrou APIs obscuras, já montou pipelines de enriquecimento que rodaram por meses sem quebrar. Entende que dado bom é dado limpo, atualizado e acionável. Ou: Você era dev/analista que se especializou em dados de growth porque percebeu que a vantagem competitiva está em saber coisas que os outros não sabem. Você já raspou dados que ninguém tinha pedido, só porque viu oportunidade. Requisitos Obrigatórios 2-4 anos de experiência com dados para growth, sales ops, ou lead gen (B2B) Python intermediário — scraping (BeautifulSoup, Selenium, Playwright), APIs, manipulação de dados (Pandas), automação de pipelines SQL intermediário — queries complexas, joins, agregações, CTEs. Você vai viver no banco. APIs de dados — já consumiu Apollo, Clearbit, Hunter, Crunchbase, LinkedIn (oficial ou não), ou similares N8N ou Make — workflows de enriquecimento, transformação, roteamento de dados Experiência real com scraping — já construiu scrapers que rodaram em produção, não só tutorial Noção de qualidade de dados — sabe o que é deduplicação, normalização, validação, cobertura Noção de arquitetura de dados — entende conceito de data lake, ETL/ELT, batch vs streaming Diferenciais que pesam Experiência com Databricks, Spark, ou PySpark Conhecimento de Delta Lake, Apache Airflow, ou orquestração de pipelines Já trabalhou com ingestão de dados em data lakes (não só consulta) Experiência com Clay (enrichment, waterfalls, AI columns) Conhecimento de Phantombuster, Firecrawl, Apify, Bright Data, ScrapingBee ou ferramentas similares Experiência com bases de dados alternativas (job boards, registro de empresas, patents, news) Conhecimento de proxies, rotação de IPs, anti-bot bypass Background em BI ou analytics (Power BI, Metabase, Looker) Inglês intermediário (muita documentação e fonte de dados em inglês) O que você NÃO é Analista de BI que só sabe fazer dashboard bonito mas nunca foi atrás do dado na fonte Dev que acha scraping "sujo" e prefere esperar API oficial que nunca vai existir Pessoa que depende de ferramenta pronta: se não existe, você constrói Quem precisa de especificação detalhada pra começar a resolver um problema Quem entrega lista uma vez e esquece - aqui é pipeline contínuo com otimização focada em gerar resultados para nossos clientes. Modelo de contratação e Benefícios Posição remota ou híbrida Remuneração competitiva com variável por entrega Contratação PJ Benefícios de saúde/alimentação Verba para cursos e formações em Dados/Automações/AI

Ready to Apply?

Don't miss this opportunity! Apply now and join our team.

Detalhes da Vaga

Data de Publicação: December 18, 2025
Tipo de Vaga: Tecnologia
Localização: Brazil
Company: Nuvia

Ready to Apply?

Don't miss this opportunity! Apply now and join our team.