A Dimensa é uma empresa líder em tecnologia e infraestrutura para operações financeiras, crédito e risco, e seguros.
Nossos sistemas são super escaláveis e adaptáveis, perfeitos para negócios de todos os tamanhos.
Nossa equipe de especialistas vive e respira o setor financeiro, atualizando nossas soluções constantemente para tornar suas operações mais digitais, melhorar a performance, inovar no atendimento aos clientes e garantir que todas as exigências regulatórias sejam 100% cumpridas.
O DESAFIO
1. Planejar, distribuir e acompanhar as tarefas da equipe de engenheiros de dados, garantindo aderência aos padrões de arquitetura e boas práticas de codificação de dados.
2. Projetar e supervisionar a construção de pipelines de dados (ETL/ELT) robustos e escaláveis, integrando dados de várias fontes (bancos de dados, APIs, streaming) e assegurando processamento eficiente (inclusive em tempo quase real quando necessário).
3. Realizar revisões de código e validações técnicas das soluções implementadas pelo time, garantindo qualidade (teste de unidade, validação de dados) e conformidade com padrões estabelecidos.
4. Otimizar fluxos de dados e consultas, trabalhando em conjunto com o arquiteto de dados para melhorar desempenho de processamento, uso de recursos e escalabilidade da plataforma (por exemplo, otimização de jobs Spark, ajustes em consultas SQL e particionamento de dados).
5. Atuar como ponto de contato técnico para stakeholders do projeto, traduzindo requisitos de negócio em especificações técnicas para a equipe e reportando progresso ou riscos aos gerentes de projeto.
6. Mentorizar e desenvolver tecnicamente os membros mais juniores da equipe de dados, promovendo aprimoramento constante das competências técnicas e disseminando cultura de engenharia de dados de excelência.
7. Colaborar com a área de infraestrutura/SRE para implementar processos de CI/CD, monitoramento e resolução de incidentes que assegurem a alta disponibilidade e confiabilidade dos pipelines de dados em produção.
O QUE VOCÊ PRECISA
* Domínio de linguagens de programação voltadas a dados (como Python/Scala para processamento de dados massivos e SQL para manipulação de bancos de dados).
* Experiência na construção de pipelines de dados usando ferramentas e frameworks modernos (por exemplo, Apache Spark/Databricks, Apache Airflow para orquestração).
* Conhecimento de arquiteturas de dados em nuvem ou on-premise, incluindo armazenamento de dados (data lakes, data warehouses) e melhores práticas de gerenciamento de dados (versionamento, ciclo de vida dos dados, etc.).
VOCÊ VAI BRILHAR AINDA MAIS SE TIVER
* Experiência no mercado financeiro.