Trabalhe com soluções que transformam realidades e geram impacto positivo.
A Minsait é uma empresa inovadora que acredita na tecnologia como força para criar soluções eficientes. Nossa missão é desenvolver pipelines de dados em lote usando o PySpark (focado em SQL)
Escriba e otimize consultas SQL complexas para dar suporte à lógica de negócios e às necessidades de relatórios
Entenda os requisitos de forma autônoma e traduza para código
Transforme e integre dados de diversas fontes em tabelas Iceberg e Snowflake
Contribua para o desenvolvimento de data marts e conjuntos de dados selecionados para consumo comercial
Colabore com analistas de negócios para entender as necessidades de dados
Monitore e gerencie trabalhos de dados em execução no AWS EMR ouquestrados pelo Airflow, aproveitando o S3, o Glue e outros serviços da AWS
Garanta a qualidade, a consistência e o desempenho dos dados em todo o pipeline
Requisitos Técnicos:
* Analista de Dados PL qualificado com uma base sólida em desenvolvimento baseado em SQL
* Experiência na criação e manutenção de pipelines de dados usando o PySpark, com SQL como a linguagem de codificação principal
* Compreensão das estruturas de modelagem de dados (como modelagem dimensional Kimball) e experiência no suporte a datawarehouses e data marts
Benefícios:
* Plano de Saúde subsidiado pela empresa para o titular
* Opção de inclusão de dependentes no Plano de Saúde com desconto em folha de pagamento
* Vale Refeição no cartão Flash Benefícios
* POP - Programa de Orientação Pessoal que visa oferecer suporte emocional e aconselhamento confidencial nas áreas psicológica, jurídica, financeira, social e pet sem custo para titular e dependentes legais
* Plataforma de Saúde Wellhub-Gympass (Acesso a mais de 700 academias em todo o Brasil com planos descontado em folha de pagamento)
Competências:
* Fluência em inglês é um diferencial
* Experiência comprovada em SQL – incluindo junções, agregações, funções de janela e ajuste de desempenho
* Experiência prática com o PySpark, particularmente com o Spark SQL
* Familiaridade com os serviços de dados da AWS (por exemplo, EMR, S3, Glue)
* Compreensão de estruturas de modelagem de dados, incluindo a metodologia Kimball
* Experiência de trabalho com Snowflake ou data warehouses em nuvem semelhantes
* Conhecimento do Apache Iceberg ou formatos de tabela semelhantes (por exemplo, Delta Lake, Hudi)