Sobre a posição
O profissional solicitado deve ter experiência avançada com Python e sólidos conhecimentos em Databricks e Delta Lake, PySpark para processamento de dados em larga escala, SQL e modelagem de dados, ETL/ELT e pipelines de dados.
As responsabilidades incluem desenvolver e implementar a arquitetura de modelagem de dados do MDM de Pacientes, especificar e documentar regras de negócios para unificação e tratamento de dados de pacientes, implementar pipelines de processamento de dados no Databricks, desenvolver lógicas para matching, deduplicate e golden record de pacientes, estabelecer fluxos de qualidade de dados e validação, criar e manter tabelas integradas seguindo as regras de negócios estabelecidas, implementar rotinas de atualização e sincronização de dados, participar de code reviews e mentoria técnica da equipe e colaborar com stakeholders de negócios para refinar regras e requisitos.
Os requisitos técnicos incluem experiência prévia com Master Data Management (MDM) ou projetos similares de integração de dados, conhecimento em técnicas de matching, fuzzy matching e deduplicação de registros, experiência com implementação de regras de negócios complexas em código, domínio de versionamento Git e metodologias ágeis, experiência com boas práticas de desenvolvimento (testes unitários, documentação).
A ênfase está na capacidade de liderar o desenvolvimento e implementação de soluções inovadoras e eficazes, trabalhando em equipe e mantendo alta qualidade nos resultados.