Estamos procurando por um profissional qualificado para trabalhar em nossa equipe de análise de dados. A função visa a construção de soluções inovadoras que ajudem a otimizar as operações logísticas e garantir a melhor experiência para nossos clientes e parceiros.
A oportunidade inclui o desenvolvimento de pipelines de dados robustos e escaláveis, utilizando tecnologias como Airflow. Além disso, você terá a chance de trabalhar com consultas e transformações de dados em BigQuery, explorando informações sobre oferta de frete e mecanismos regulatórios.
Responsabilidades
* Projetar e construir pipelines de dados: Utilizando Airflow, crie pipelines robustos e escaláveis focados em dados de logística.
* Desenvolver e otimizar consultas e transformações de dados: Trabalhe em BigQuery para explorar informações sobre a oferta de frete e mecanismos regulatórios.
* Otimizar formatos de dados: Trabalhe com diversos formatos de dados logísticos, incluindo a otimização para o formato Parquet.
* Desenvolver scripts e ferramentas em Python: Crie scripts e ferramentas para extrair, transformar e carregar dados relevantes para a análise da oferta de frete e conformidade regulatória.
* Criar e manter dashboards e visualizações informativas: Use Looker Studio para criar dashboards e visualizações que permitam o acompanhamento de métricas de frete, impacto de regulamentações e outras análises logísticas.
* Colaborar com equipes: Trabalhe em conjunto com as áreas de Logística, Compliance e outros times para entender as necessidades de dados e fornecer soluções que otimizem a oferta de frete e garantam a conformidade com as regulamentações.
* Garantir qualidade dos dados: Certifique-se de que os dados logísticos sejam de alta qualidade, integridade e segurança.
Para ser bem-sucedido nessa posição, é importante possuir:
* Experiência em BigQuery: Desenvolveu habilidades em análise de grandes volumes de dados, idealmente com foco em dados logísticos.
* Experiência com Airflow: Conhecimento em orquestração de workflows de dados.
* Conhecimento em Parquet: Sabe trabalhar com o formato de dados Parquet para otimização de armazenamento e leitura.
* Proficiência em Python: Habilidade em programação em Python para manipulação e processamento de dados logísticos.
* Experiência em Looker Studio: Desenvolveu habilidades em criação de visualizações e dashboards.
* Familiaridade com conceitos de modelagem de dados: Entende aplicação em dados de logística.
* Controle de versão (Git): Experiência em controle de versão.