Descrição do Cargo
Desenvolver e manter pipelines de dados usando Spark, PySpark ou Scala no Databricks, garantindo automação e performance em processos ETL de grande volume;
Modelar, integrar e transformar dados complexos utilizando SQL avançado, assegurando qualidade e disponibilidade para áreas de negócio e analytics;
Criar e otimizar jobs em Spark para ingestão, limpeza, padronização e enriquecimento de dados provenientes de múltiplas fontes;
Monitorar, documentar e otimizar a infraestrutura de dados, garantindo governança, escalabilidade, segurança e alto desempenho em ambientes de nuvem e plataformas como Databricks.