Buscamos um profissional apaixonado por análise de dados para trabalhar em projetos que otimizem nossas operações logísticas.
Responsabilidades:
* Desenvolver pipelines de dados robustos e escaláveis utilizando Airflow;
* Otimizar consultas e transformações de dados em BigQuery explorando informações sobre oferta de frete e mecanismos regulatórios;
* Trabalhar com diversos formatos de dados logísticos, incluindo otimização para o formato Parquet;
* Desenvolver scripts e ferramentas em Python para extrair, transformar e carregar dados relevantes para a análise da oferta de frete e conformidade regulatória;
* Criar e manter dashboards e visualizações informativas em Looker Studio que permitam o acompanhamento de métricas de frete, impacto de regulamentações e outras análises logísticas;
* Colaborar com as áreas de Logística, Compliance e outros times para entender as necessidades de dados e fornecer soluções que otimizem a oferta de frete e garantam a conformidade com as regulamentações;
* Garantir a qualidade, integridade e segurança dos dados logísticos;
* Participar da definição e implementação de melhores práticas de engenharia de dados no contexto da logística;
Para ter sucesso nessa posição, é necessário possuir experiência prática com BigQuery para análise de grandes volumes de dados, idealmente com foco em dados logísticos; conhecimento em trabalhar com o formato de dados Parquet para otimização de armazenamento e leitura; proficiência em programação em Python para manipulação e processamento de dados logísticos; experiência na criação de visualizações e dashboards utilizando Looker Studio para apresentar insights logísticos; familiaridade com conceitos de modelagem de dados, com aplicação em dados de logística (ex: dados de transporte, tabelas de frete, informações regulatórias); e experiência com controle de versão (Git).
Conhecimentos Desejados:
* Experiência com automações utilizando técnicas de Inteligência Artificial para análise de dados logísticos, como previsão de demanda de frete ou identificação de padrões em dados regulatórios;
* Experiência com outras plataformas de nuvem (GCP, AWS);
* Conhecimento de bancos de dados NoSQL;
* Experiência com ferramentas de ETL/ELT;
* Noções de práticas de DevOps para pipelines de dados (CI/CD);
Estamos procurando alguém que esteja disposto a aprender e crescer com a empresa. Se você está ansioso para trabalhar em projetos desafiadores e criar soluções inovadoras, nós queremos conhecer você!