Buscamos um profissional apaixonado por logística para trabalhar com dados relacionados à oferta de frete e mecanismos regulatórios.
Nesta função, você terá a oportunidade de projetar pipelines de dados robustos e escaláveis, utilizando Airflow.
O objetivo é otimizar as operações logísticas e garantir a melhor experiência para os clientes e parceiros.
* Desenvolver e otimizar consultas e transformações de dados em BigQuery, explorando informações sobre a oferta de frete e mecanismos regulatórios.
* Trabalhar com diversos formatos de dados logísticos, incluindo a otimização para o formato Parquet.
* Desenvolver scripts e ferramentas em Python para extrair, transformar e carregar dados relevantes para a análise da oferta de frete e conformidade regulatória.
* Criar e manter dashboards e visualizações informativas em Looker Studio que permitam o acompanhamento de métricas de frete, impacto de regulamentações e outras análises logísticas.
* Colaborar com as áreas de Logística, Compliance e outros times para entender as necessidades de dados e fornecer soluções que otimizem a oferta de frete e garantam a conformidade com as regulamentações.
* Garantir a qualidade, integridade e segurança dos dados logísticos.
* Participar da definição e implementação de melhores práticas de engenharia de dados no contexto da logística.
Aqui estão algumas das responsabilidades desta posição:
* Projetar, construir e manter pipelines de dados robustos e escaláveis focados em dados de logística.
* Desenvolver e otimizar consultas e transformações de dados em BigQuery.
* Trabalhar com diversos formatos de dados logísticos.
* Desenvolver scripts e ferramentas em Python.
* Criar e manter dashboards e visualizações informativas em Looker Studio.
* Colaborar com as áreas de Logística, Compliance e outros times.
* Garantir a qualidade, integridade e segurança dos dados logísticos.
Para ter sucesso nesta posição, você precisará de:
* Experiência prática com BigQuery para análise de grandes volumes de dados.
* Experiência com ferramentas de orquestração de workflows de dados, como Airflow.
* Conhecimento em trabalhar com o formato de dados Parquet para otimização de armazenamento e leitura.
* Proficiência em programação em Python para manipulação e processamento de dados logísticos.
* Experiência na criação de visualizações e dashboards utilizando Looker Studio.
* Familiaridade com conceitos de modelagem de dados, com aplicação em dados de logística.
* Experiência com controle de versão (Git).
Diferenciais:
* Conhecimento do domínio de logística, incluindo conceitos de oferta de frete e mecanismos regulatórios do setor de transporte.
* Experiência com automações utilizando técnicas de Inteligência Artificial para análise de dados logísticos.
* Experiência com outras plataformas de nuvem (GCP, AWS).
* Conhecimento de bancos de dados NoSQL.
* Experiência com ferramentas de ETL/ELT.
* Noções de práticas de DevOps para pipelines de dados.
Ambiente de trabalho:
No Luizalabs, temos grande autonomia e responsabilidade, somos multidisciplinares, auto gerenciáveis e com pouca burocracia no nosso cotidiano.