Trabalhamos com tecnologia avançada para criar soluções inovadoras e impactantes. Nossa equipe está em constante busca por profissionais de alta qualidade que sejam capazes de liderar projetos complexos e desenvolver habilidades técnicas.
Buscamos um profissional sênior para ocupar a posição de Engenheiro de Dados Sênior. O candidato ideal terá experiência em Python, modelagem de dados e implementação de regras de negócios.
Responsabilidades
* Desenvolver e implementar a arquitetura de modelagem de dados do MDM de Pacientes
* Especificar e documentar regras de negócios para unificação e tratamento de dados de pacientes
* Implementar pipelines de processamento de dados no Databricks
* Desenvolver lógicas para matching, deduplicação e gravação única de pacientes
* Estabelecer fluxos de qualidade de dados e validação
* Criar e manter tabelas integradas seguindo as regras de negócios estabelecidas
* Implementar rotinas de atualização e sincronização de dados
* Participar de revisões de código e mentoria técnica da equipe
* Colaborar com stakeholders de negócios para refinar regras e requisitos
Requisitos Técnicos
Essenciais:
* Experiência avançada com Python
* Sólidos conhecimentos em: Databricks e Delta Lake, PySpark para processamento de dados em larga escala, SQL e modelagem de dados, ETL/ELT e pipelines de dados
* Experiência com Master Data Management (MDM) ou projetos similares de integração de dados
* Conhecimento em técnicas de matching, fuzzy matching e deduplicação de registros
* Experiência com implementação de regras de negócios complexas em código
* Domínio de versionamento Git e metodologias ágeis
* Experiência com boas práticas de desenvolvimento (testes unitários, documentação)
Diferenciais:
* Experiência prévia com MDM na área de saúde
* Conhecimento em FHIR ou outros padrões de dados de saúde
* Experiência com Great Expectations para qualidade de dados
* Conhecimento em frameworks de governança de dados
* Experiência com mensageria (Kafka, Event Hubs)
* Familiaridade com ferramentas de CDC (Change Data Capture)
* Conhecimento em observabilidade (Databricks SQL Analytics, Grafana)
* Experiência com APIs RESTful para exposição de dados