Nosso cliente é uma empresa nacional de tecnologia, com forte atuação no segmento médico e hospitalar, situada na região da Vila Olímpia, São Paulo, capital.
?? Misão do Cargo: Atuar como pilar técnico na construção e evolução das soluções de engenharia de dados da Memed, garantindo a alta qualidade, escalabilidade e disponibilidade dos pipelines e estruturas de dados que suportam as decisões de produto, negócio e tecnologia.
?? Principais Responsabilidades: 1.
Desenvolvimento e Manutenção de Pipelines de Dados: Projetar, construir e manter pipelines de dados eficientes e escaláveis que suportem a coleta, processamento e análise de grandes volumes de dados.
2.
Integração de Dados: Trabalhar na integração de dados provenientes de diferentes fontes, garantindo a qualidade e a consistência das informações.
3.
Modelagem de Dados: Criar e otimizar modelos de dados que atendam às necessidades de análise e relatórios, utilizando técnicas de modelagem relacional e dimensional.
4.
Colaboração com Equipes de Análise: Trabalhar em estreita colaboração com cientistas de dados, analistas de negócios e outras partes interessadas para entender requisitos de dados e garantir que as soluções atendam às expectativas.
5.
Monitoramento e Otimização de Performance: Monitorar o desempenho dos sistemas de dados e realizar otimizações para melhorar a eficiência e a velocidade de processamento.
6.
Documentação: Criar e manter documentação técnica detalhada sobre processos de ETL (Extração, Transformação e Carga), estruturas de dados e fluxos de trabalho.
7.
Garantia de Qualidade de Dados: Implementar e monitorar processos de validação de dados para garantir a integridade e a precisão das informações.
?? Requisitos e Qualificações: ??Formação Acadêmica: Graduação em Ciência da Computação, Engenharia de Dados, Engenharia de Software ou área relacionada.
??Experiência: Experiência sólida em engenharia de dados e ambientes analíticos.
(Idealmente de 4 a 6 anos) Participação em projetos de dados complexos e de larga escala.
?? Hard Skills: Linguagens de Programação: Proficiência em linguagens como Python, Java ou Scala.
Bancos de Dados: Experiência com bancos de dados relacionais (como MySQL, PostgreSQL) e não relacionais (como MongoDB, Cassandra).
Ferramentas de Big Data: Conhecimento em ferramentas como Apache Hadoop, Apache Spark e Apache Kafka.
Cloud Computing: Experiência com serviços de nuvem (AWS, Azure, Google Cloud) e suas soluções de armazenamento e processamento de dados.
SQL: Habilidade avançada em SQL para manipulação e consulta de dados.
Processamento de Dados: Utilização do Databricks para construção e otimização de pipelines escaláveis, garantindo desempenho e governança em ambientes distribuídos.
??Soft Skills: Pensamento Crítico: Capacidade de analisar problemas complexos e propor soluções eficazes.
Trabalho em Equipe: Habilidade de colaborar com diferentes equipes e stakeholders, promovendo um ambiente de trabalho cooperativo.
Comunicação: Capacidade de comunicar conceitos técnicos de forma clara e concisa para públicos não técnicos.
Adaptabilidade: Flexibilidade para se adaptar a novas tecnologias e mudanças nas demandas do negócio.
Proatividade: Iniciativa para identificar melhorias e inovações nos processos de dados.
?Diferenciais: Armazenamento e processamento: Data Lakes, Cloud Storage, Parquet, Delta Lake.
Ferramentas de versionamento e CI/CD: Git, GitHub Actions, Terraform.
Conhecimento de boas práticas de segurança, qualidade de dados, e LGPD.
Contratação: CLT + benefícios
Modelo de trabalho: Remoto
? Código do Projeto: 129
? Para ter sucesso em processos seletivos: >?? Acompanhe o nosso podcast:
>