Nosso cliente é uma empresa nacional de tecnologia, com forte atuação no segmento médico e hospitalar, situada na região da Vila Olímpia, São Paulo, capital.
🎯 Misão do Cargo:
Atuar como pilar técnico na construção e evolução das soluções de engenharia de dados da Memed, garantindo a alta qualidade, escalabilidade e disponibilidade dos pipelines e estruturas de dados que suportam as decisões de produto, negócio e tecnologia.
📌 Principais Responsabilidades:
1. Desenvolvimento e Manutenção de Pipelines de Dados: Projetar, construir e manter pipelines de dados eficientes e escaláveis que suportem a coleta, processamento e análise de grandes volumes de dados.
2. Integração de Dados: Trabalhar na integração de dados provenientes de diferentes fontes, garantindo a qualidade e a consistência das informações.
3. Modelagem de Dados: Criar e otimizar modelos de dados que atendam às necessidades de análise e relatórios, utilizando técnicas de modelagem relacional e dimensional.
4. Colaboração com Equipes de Análise: Trabalhar em estreita colaboração com cientistas de dados, analistas de negócios e outras partes interessadas para entender requisitos de dados e garantir que as soluções atendam às expectativas.
5. Monitoramento e Otimização de Performance: Monitorar o desempenho dos sistemas de dados e realizar otimizações para melhorar a eficiência e a velocidade de processamento.
6. Documentação: Criar e manter documentação técnica detalhada sobre processos de ETL (Extração, Transformação e Carga), estruturas de dados e fluxos de trabalho.
7. Garantia de Qualidade de Dados: Implementar e monitorar processos de validação de dados para garantir a integridade e a precisão das informações.
🔎 Requisitos e Qualificações:
🎓Formação Acadêmica:
Graduação em Ciência da Computação, Engenharia de Dados, Engenharia de Software ou área relacionada.
📊Experiência:
* Experiência sólida em engenharia de dados e ambientes analíticos. (Idealmente de 4 a 6 anos)
* Participação em projetos de dados complexos e de larga escala.
🛠 Hard Skills:
* Linguagens de Programação: Proficiência em linguagens como Python, Java ou Scala.
* Bancos de Dados: Experiência com bancos de dados relacionais (como MySQL, PostgreSQL) e não relacionais (como MongoDB, Cassandra).
* Ferramentas de Big Data: Conhecimento em ferramentas como Apache Hadoop, Apache Spark e Apache Kafka.
* Cloud Computing: Experiência com serviços de nuvem (AWS, Azure, Google Cloud) e suas soluções de armazenamento e processamento de dados.
* SQL: Habilidade avançada em SQL para manipulação e consulta de dados.
* Processamento de Dados: Utilização do Databricks para construção e otimização de pipelines escaláveis, garantindo desempenho e governança em ambientes distribuídos.
💡Soft Skills:
* Pensamento Crítico: Capacidade de analisar problemas complexos e propor soluções eficazes.
* Trabalho em Equipe: Habilidade de colaborar com diferentes equipes e stakeholders, promovendo um ambiente de trabalho cooperativo.
* Comunicação: Capacidade de comunicar conceitos técnicos de forma clara e concisa para públicos não técnicos.
* Adaptabilidade: Flexibilidade para se adaptar a novas tecnologias e mudanças nas demandas do negócio.
* Proatividade: Iniciativa para identificar melhorias e inovações nos processos de dados.
⭐Diferenciais:
* Armazenamento e processamento: Data Lakes, Cloud Storage, Parquet, Delta Lake.
* Ferramentas de versionamento e CI/CD: Git, GitHub Actions, Terraform.
* Conhecimento de boas práticas de segurança, qualidade de dados, e LGPD.
Contratação: CLT + benefícios
Modelo de trabalho: Remoto
▶ Código do Projeto: 129
✅ Para ter sucesso em processos seletivos: https://www.youtube.com/c/EmpregabilidadeMáxima
🟠 Acompanhe o nosso podcast:
https://www.youtube.com/@TechrxRecruiting