Descrição da Vaga
Precisamos de um profissional experiente em desenvolver soluções de dados integradas utilizando tecnologias como Spark, PySpark e Scala no Databricks.
O candidato ideal terá conhecimentos avançados em SQL para modelar, integrar e transformar dados complexos garantindo a qualidade e disponibilidade dos dados para as áreas de negócios e analytics.
Ferramentas essenciais incluem o conhecimento de pipelines de dados automatizados com foco na performance e otimização de processos ETL de grande volume. Além disso, é desejável habilidade para criar jobs em Spark que façam ingestão, limpeza, padronização e enriquecimento de dados provenientes de múltiplas fontes.