SOBRE A LETS
A LETS é uma empresa de tecnologia que atua na integração de canais de venda com operadores logísticos, potencializando resultados de negócios por meio de soluções inovadoras. Nosso sistema SaaS, chamado Max, é a espinha dorsal que conecta varejistas, operadores logísticos e canais de venda de forma eficiente e automatizada, oferecendo uma experiência simplificada e eficaz para todos os envolvidos. Nossa missão é desenvolver soluções tecnológicas inovadoras que maximizem o desempenho e a eficiência dos negócios, capacitando empresas a alcançar resultados excepcionais.
Estamos crescendo rapidamente e buscamos talentos que queiram fazer parte de nossa jornada, ajudando a transformar o ecossistema de tecnologia e logística. Se você é uma pessoa apaixonada por dados, focada em desenvolvimento de produto e, apaixonada por criar soluções eficientes e escaláveis, queremos conhecer você!
ATIVIDADES:
- Construir pipelines de ingestão e transformação de dados usando Kestra, DBT, Python e Athena;
- Modelar e manter dados em Apache Iceberg com controle de versionamento, time travel e performance analítica;
- Integrar fontes diversas (bancos, APIs, arquivos, etc.) com foco em rastreabilidade e escalabilidade;
- Criar e manter modelos transformacionais com DBT, preparando datasets confiáveis e auditáveis;
- Participar de integrações de dados com fluxos de IA/MCP, colaborando com cientistas e analistas;
- Desenvolver dashboards com QuickSight, Metabase (ou ferramentas similares) com foco em usabilidade e performance;
- Atuar em decisões de arquitetura, boas práticas de dados e melhoria contínua dos pipelines;
- Contribuir para a construção de uma base de conhecimento, registrando soluções frequentes e otimizações para o uso futuro;
- Trabalhar em parceria com outras áreas, como produto e operações, para garantir que feedbacks dos clientes sejam levados em consideração.
REQUISITOS:
- Experiência com AWS Athena e estruturas de dados em S3;
- Domínio de Apache Iceberg ou formatos semelhantes (Delta Lake, Hudi);
- Vivência com ferramentas de orquestração como Kestra (ou equivalentes como Airflow, Prefect);
- Conhecimento prático em DBT e versionamento de modelos analíticos;
- Forte domínio de Python para automações, integrações e manipulação de dados;
- Noções de Inteligência Artificial e Modelos Cognitivos de Processamento (MCP);
- Experiência com ferramentas de BI como QuickSight, Metabase ou similares de nível compatível.
- Conhecimentos aprofundados em SQL;
- Conhecimentos em ferramentas de IA e desenvolvimento de prompts adaptáveis;
HABILIDADES DESEJÁVEIS:
- Ensino Superior em Curso nas áreas de Engenharia, Ciências da Computação/Dados, Estatística ou correlatas;
- Experiência anterior com produtos de tecnologia ou SaaS com ênfase em dados e BI;
- Experiência prévia com de BI;
- Conhecimento básico de sistemas logísticos ou de e-commerce será um diferencial.
BENEFÍCIOS:
- Remuneração competitiva + participação nos resultados;
- Cartão de Benefícios;
- Trabalhe de qualquer lugar do Brasil (modelo 100% remoto);
- Oportunidade de trabalhar em times dinâmicos e com ferramentas de última geração com IA.
DETALHES:
- Modelo de contratação de Pessoa Jurídica (PJ);