Informações Sobre a Vaga
">
Aqui você trabalhará como um especialista em dados, focado na área de logística. Será responsável por projetar e construir pipelines de dados robustos e escaláveis para gerenciar informações relacionadas à oferta de frete e regulamentações do setor.
Especificidades da Posição:
* Pipeline de Dados: Desenvolva e mantenha pipelines de dados robustos utilizando Airflow, para processamento eficiente de grandes volumes de dados relacionados à oferta de frete.
* Análise de Dados: Use BigQuery para desenvolver consultas e transformações de dados, explorando informações sobre a oferta de frete e mecanismos regulatórios.
* Formatos de Dados: Trabalhe com diversos formatos de dados, incluindo o formato Parquet para otimização de armazenamento e leitura.
* Desenvolvimento de Scripts: Crie scripts e ferramentas em Python para extrair, transformar e carregar dados relevantes para análise da oferta de frete e conformidade regulatória.
* Criar Dashboards: Desenvolva dashboards informativos em Looker Studio para acompanhar métricas de frete, impacto de regulamentações e outras análises logísticas.
* Colaboração: Colabore com as áreas de Logística, Compliance e outros times para entender as necessidades de dados e fornecer soluções que otimizem a oferta de frete e garantam a conformidade.
* Garantir Qualidade: Garanta a qualidade, integridade e segurança dos dados logísticos.
* Bem-Estar no Trabalho: Atue na definição e implementação de melhores práticas de engenharia de dados no contexto da logística.
Requisitos e Qualificações
* Experiência Prática: Experiência prática com BigQuery para análise de grandes volumes de dados, idealmente com foco em dados logísticos.
* Ferramentas de Orquestração: Experiência com ferramentas de orquestração de workflows de dados, como Airflow.
* Conhecimento em Formatos de Dados: Conhecimento em trabalhar com o formato de dados Parquet para otimização de armazenamento e leitura.
* Programação em Python: Proficiência em programação em Python para manipulação e processamento de dados logísticos.
* Criação de Visualizações: Experiência na criação de visualizações e dashboards utilizando Looker Studio para apresentar insights logísticos.
* Modelagem de Dados: Familiaridade com conceitos de modelagem de dados, com aplicação em dados de logística (ex: dados de transporte, tabelas de frete, informações regulatórias).
* Controle de Versão: Experiência com controle de versão (Git).
Diferenciais
* Domínio de Logística: Conhecimento do domínio de logística, incluindo conceitos de oferta de frete e mecanismos regulatórios do setor de transporte.
* Automations: Experiência com automações utilizando técnicas de Inteligência Artificial para análise de dados logísticos, como previsão de demanda de frete ou identificação de padrões em dados regulatórios.
* Plataformas de Nuvem: Experiência com outras plataformas de nuvem (GCP, AWS).
* Bancos de Dados NoSQL: Conhecimento de bancos de dados NoSQL.
* ETL/ELT: Experiência com ferramentas de ETL/ELT.
* DevOps: Noções de práticas de DevOps para pipelines de dados (CI/CD).
Ambiente de Trabalho
O ambiente é caracterizado por grande autonomia e responsabilidade, sendo multidisciplinares e auto-gerenciáveis, com pouca burocracia no cotidiano. Buscamos romper as barreiras que diminuem nossa capacidade de agregar valor ao negócio. Fazemos entregas frequentes e agimos rapidamente ao encontrar problemas; nosso ritmo é acelerado, mas temos tranquilidade e equilíbrio para planejar e executar nossas tarefas com qualidade.