SOBRE A LETS A LETS é uma empresa de tecnologia que atua na integração de canais de venda com operadores logísticos, potencializando resultados de negócios por meio de soluções inovadoras. Nosso sistema Saa S, chamado Max, é a espinha dorsal que conecta varejistas, operadores logísticos e canais de venda de forma eficiente e automatizada, oferecendo uma experiência simplificada e eficaz para todos os envolvidos. Nossa missão é desenvolver soluções tecnológicas inovadoras que maximizem o desempenho e a eficiência dos negócios, capacitando empresas a alcançar resultados excepcionais. Estamos crescendo rapidamente e buscamos talentos que queiram fazer parte de nossa jornada, ajudando a transformar o ecossistema de tecnologia e logística. Se você é uma pessoa apaixonada por dados, focada em desenvolvimento de produto e, apaixonada por criar soluções eficientes e escaláveis, queremos conhecer você! ATIVIDADES: - Construir pipelines de ingestão e transformação de dados usando Kestra, DBT, Python e Athena; - Modelar e manter dados em Apache Iceberg com controle de versionamento, time travel e performance analítica; - Integrar fontes diversas (bancos, APIs, arquivos, etc.) com foco em rastreabilidade e escalabilidade; - Criar e manter modelos transformacionais com DBT, preparando datasets confiáveis e auditáveis; - Participar de integrações de dados com fluxos de IA/MCP, colaborando com cientistas e analistas; - Desenvolver dashboards com Quick Sight, Metabase (ou ferramentas similares) com foco em usabilidade e performance; - Atuar em decisões de arquitetura, boas práticas de dados e melhoria contínua dos pipelines; - Contribuir para a construção de uma base de conhecimento, registrando soluções frequentes e otimizações para o uso futuro; - Trabalhar em parceria com outras áreas, como produto e operações, para garantir que feedbacks dos clientes sejam levados em consideração. REQUISITOS: - Experiência com AWS Athena e estruturas de dados em S3; - Domínio de Apache Iceberg ou formatos semelhantes (Delta Lake, Hudi); - Vivência com ferramentas de orquestração como Kestra (ou equivalentes como Airflow, Prefect); - Conhecimento prático em DBT e versionamento de modelos analíticos; - Forte domínio de Python para automações, integrações e manipulação de dados; - Noções de Inteligência Artificial e Modelos Cognitivos de Processamento (MCP); - Experiência com ferramentas de BI como Quick Sight, Metabase ou similares de nível compatível. - Conhecimentos aprofundados em SQL; - Conhecimentos em ferramentas de IA e desenvolvimento de prompts adaptáveis; HABILIDADES DESEJÁ VEIS: - Ensino Superior em Curso nas áreas de Engenharia, Ciências da Computação/Dados, Estatística ou correlatas; - Experiência anterior com produtos de tecnologia ou Saa S com ênfase em dados e BI; - Experiência prévia com de BI; - Conhecimento básico de sistemas logísticos ou de e-commerce será um diferencial. BENEFÍ CIOS: - Remuneração competitiva + participação nos resultados; - Cartão de Benefícios; - Trabalhe de qualquer lugar do Brasil (modelo 100% remoto); - Oportunidade de trabalhar em times dinâmicos e com ferramentas de última geração com IA. DETALHES: - Modelo de contratação de Pessoa Jurídica (PJ);