Buscamos um profissional apaixonado por logística para trabalhar em nosso time de engenharia de dados.
Aqui, você terá a oportunidade de projetar e construir pipelines de dados robustos e escaláveis focados em dados de logística.
Responsabilidades da posição:
* Projetar e construir pipelines de dados robustos e escaláveis utilizando Airflow;
* Desenvolver e otimizar consultas e transformações de dados em BigQuery;
* Trabalhar com diversos formatos de dados logísticos, incluindo o formato Parquet;
* Desenvolver scripts e ferramentas em Python para extrair, transformar e carregar dados relevantes;
* Criar e manter dashboards e visualizações informativas em Looker Studio;
* Colaborar com as áreas de Logística e Compliance para entender as necessidades de dados e fornecer soluções que otimizem a oferta de frete;
* Garantir a qualidade, integridade e segurança dos dados logísticos;
* Participar da definição e implementação de melhores práticas de engenharia de dados no contexto da logística;
Para ter sucesso nesta posição, você precisará:
* Experiência prática com BigQuery para análise de grandes volumes de dados;
* Experiência com ferramentas de orquestração de workflows de dados, como Airflow;
* Conhecimento em trabalhar com o formato de dados Parquet;
* Proficiência em programação em Python;
* Experiência na criação de visualizações e dashboards utilizando Looker Studio;
* Familiaridade com conceitos de modelagem de dados;
* Experiência com controle de versão (Git);
Diferenciais:
* Conhecimento do domínio de logística;
* Experiência com automações utilizando técnicas de Inteligência Artificial;
* Experiência com outras plataformas de nuvem;
* Conhecimento de bancos de dados NoSQL;
* Experiência com ferramentas de ETL/ELT;
* Noções de práticas de DevOps para pipelines de dados;
Como é o ambiente de trabalho?
Nós valorizamos a autonomia e a responsabilidade, somos multidisciplinares e auto gerenciáveis.