Oportunidade para especialista em dados que almeje trabalhar com logística e otimização de processos.
Função
Criar pipelines de dados robustos focados em dados logísticos, utilizando Airflow. Desenvolver consultas e transformações de dados em BigQuery, explorando informações sobre a oferta de frete e mecanismos regulatórios.
Responsabilidades
* Pipeline de Dados: Projetar, construir e manter pipelines de dados escaláveis utilizando Airflow.
* Consultas e Transformações de Dados: Desenvolver consultas e transformações de dados em BigQuery para análise de dados logísticos.
* Dados Logísticos: Trabalhar com diversos formatos de dados logísticos e otimizar para o formato Parquet.
* Desenvolvimento de Scripts: Desenvolver scripts em Python para extrair, transformar e carregar dados relevantes para análise da oferta de frete e conformidade regulatória.
* Dashboard: Criar dashboards informativos em Looker Studio para acompanhar métricas de frete e impacto de regulamentações.
* Collaboração: Colaborar com áreas de Logística, Compliance e outros times para entender necessidades de dados e fornecer soluções que otimizem a oferta de frete e garantam a conformidade com as regulamentações.
Para ter sucesso nessa posição, você precisará:
* Experiência prática com BigQuery para análise de grandes volumes de dados.
* Experiência com ferramentas de orquestração de workflows de dados, como Airflow.
* Conhecimento em trabalhar com o formato de dados Parquet para otimização de armazenamento e leitura.
* Proficiência em programação em Python para manipulação e processamento de dados logísticos.
* Familiaridade com conceitos de modelagem de dados aplicados em dados de logística.
Diferenciais:
* Conhecimento do domínio de logística, incluindo conceitos de oferta de frete e mecanismos regulatórios do setor de transporte.
* Experiência com automações utilizando técnicas de Inteligência Artificial para análise de dados logísticos.
* Experiência com outras plataformas de nuvem (GCP, AWS).
Ambiente de Trabalho:
No Luizalabs, valorizamos autonomia e responsabilidade. Somos multidisciplinares, auto gerenciáveis e trabalhamos em um ambiente flexível e acelerado.
Requisitos
* Graduação em Engenharia de Dados ou área afim.
* Experiência em desenvolvimento de software e análise de dados.
* Conhecimento em ferramentas de ETL/ELT e CI/CD.