A posição visa atuar em um ambiente de alto desempenho, trabalhando com Big Data, Data Engineering e SQL. Serão necessárias habilidades para desenvolver pipelines de dados eficientes, otimizar consultas complexas e garantir a integração de dados.
Tecnologias Requisitadas:
* Pipelines de dados utilizando PySpark.
* Consultas SQL complexas.
* Migrações de dados entre sistemas.
* Integração de dados com serviços AWS.
Habilidades Desejáveis:
* Autonomia para entender requisitos e traduzi-los em código.
* Desenvolvimento de data marts e conjuntos de dados selecionados.
* Colaboração com analistas de negócios.
* Gerenciamento de trabalhos de dados.
Competências:
Modelagem de Dados, Arquitetura de Soluções de Dados, Integração de Dados e Problema de Desempenho dos Dados.
O candidato ideal terá conhecimento profundo da linguagem Python e experiência em trabalhar com bibliotecas como PySpark e Pandas. Além disso, é importante possuir habilidades para gerenciar projetos e colaborar com equipes.