Descrição da Vaga
PCD - Engenheiro De Dados - Nosso sistema SaaS, chamado Max, é a espinha dorsal que conecta varejistas, operadores logísticos e canais de venda de forma eficiente e automatizada, oferecendo uma experiência simplificada e eficaz para todos os envolvidos.
Nossa missão é desenvolver soluções tecnológicas inovadoras que maximizem o desempenho e a eficiência dos negócios, capacitando empresas a alcançar resultados excepcionais.
Estamos crescendo rapidamente e buscamos talentos que queiram fazer parte de nossa jornada, ajudando a transformar o ecossistema de tecnologia e logística.
Se você é uma pessoa apaixonada por dados, focada em desenvolvimento de produto e, apaixonada por criar soluções eficientes e escaláveis, queremos conhecer você!ATIVIDADES:- Construir pipelines de ingestão e transformação de dados usando Kestra, DBT, Python e Athena; - Modelar e manter dadosem Apache Iceberg com controle de versionamento, time travel e performance analítica; - Integrar fontes diversas (bancos, APIs, arquivos, etc.
) com foco em rastreabilidade e escalabilidade; - Criar e manter modelostransformacionais com DBT, preparando datasets confiáveis e auditáveis; - Participar de integrações de dados com fluxos de IA/MCP, colaborando com cientistas e analistas; - Desenvolver dashboardscom QuickSight, Metabase (ou ferramentas similares) com foco em usabilidade e performance; - Atuar em decisões de arquitetura, boas práticas de dados e melhoria contínua dos pipelines; - Contribuir para a construção de uma base de conhecimento, registrando soluções frequentes e otimizações para o uso futuro; - Trabalhar em parceria com outras áreas, como produto e operações, para garantir que feedbacks dos clientes sejam levados em consideração.
REQUISITOS:- Experiência com AWS Athena e estruturas de dados em S3; - Domínio de Apache Iceberg ou formatos semelhantes (Delta Lake, Hudi); - Vivência com ferramentas de orquestração como Kestra (ou equivalentes como Airflow, Prefect); - Conhecimento prático em DBT e versionamento de modelos analíticos; - Forte domínio de Python para automações, integrações e manipulação de dados; - Noções de InteligênciaArtificial e Modelos Cognitivos de Processamento (MCP); - Experiência com ferramentas de BI como QuickSight, Metabase ou similares de nível compatível.
- Conhecimentos aprofundados em SQL; - Conhecimentos em ferramentas de IA e desenvolvimento de prompts adaptáveis; HABILIDADES DESEJÁVEIS:- Ensino Superior em Curso nas áreas de Engenharia, Ciências da Computação/Dados, Estatística ou correlatas; - Experiência anterior com produtos de tecnologia ou SaaS com ênfase em dados e BI; - Experiência prévia comde BI; - Conhecimento básico desistemas logísticos ou de e-commerce será um diferencial.
BENEFÍCIOS:- Remuneração competitiva + participação nos resultados.
- Plano de saúde (incluindo cônjuge e filhos).
- Licença Remunerada Anual- Licença Maternidade e Paternindade- Plano odontológico.
- Seguro de vida.
- Cartão de benefícios flexível.
- Day Off de Aniversário.
- Rotina com ferramentas modernas e IA; aprendizado contínuo.
- 100% remoto (trabalhe de qualquer lugar do Brasil).
DETALHES:- Modelo de contratação: Pessoa Jurídica (PJ).
- Jornada: tempo integral, com eventuais rituais/treinamentos.
- Local: remoto fuso BRT (GMT-3).
- Todas as vagas são abertas para pessoas com deficiência (PcD).
- Em nossos processos seletivos, não há qualquer tipo de distinção em virtude de gênero, orientação sexual, religião, crença, condição social, etnia ou raça.
COMO SE DESTACAR:Ao se candidatar, envie portfólio, GitHub, dashboards ou cases (mesmo acadêmicos/pessoais) que mostrem, na prática:- Construção de pipelines de dados de ponta a ponta (ingestão, transformação, modelagem e consumo).
- Seu raciocínio técnico nas escolhas de arquitetura, ferramentas e estruturação dos dados.
- Exemplos de modelagem, SQL, Python e uso de ferramentas como DBT, Athena, orquestradores ou similares.
- Dashboards e análises com foco em decisão, usabilidade e contexto de negócio.
- Cuidados com qualidade, rastreabilidade, documentação e manutenção dos pipelines.
- Casos de integração com APIs, bancos, arquivos ou automações.
- Como você aprende, evolui tecnicamente e incorpora feedback no dia a dia.