Buscamos profissionais qualificados para uma posição de engenharia de dados.
Descrição do Emprego
A função visa o desenvolvimento e suporte de pipelines de dados escaláveis em ambientes híbridos. O profissional trabalhará com tecnologias como Hadoop, Spark, Azure e Snowflake.
Responsabilidades Principais:
1. Projetar e desenvolver pipelines de dados escaláveis utilizando Apache Hadoop, Spark e Kafka
2. Implementar processos de ETL e integração de dados de múltiplas fontes (internas e externas)
3. Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala
4. Otimizar e ajustar jobs Spark e Hadoop para melhor performance
5. Atuar com CDP (Cloudera Data Platform) para deploy e gerenciamento de aplicações Big Data
6. Integrar soluções com Azure, Snowflake e infraestrutura on-premises
7. Colaborar com cientistas de dados, analistas, arquitetos e stakeholders para entender requisitos e entregar soluções robustas
8. Utilizar ferramentas de versionamento como GitHub e automações via GitHub Actions e/ou Azure DevOps
9. Explorar e implementar novas tecnologias de acordo com o roadmap interno de Big Data
Para este papel, buscamos um profissional experiente com conhecimento em ambientes Hadoop e capacidade de lidar com grandes volumes de dados.
Requisitos Técnicos:
* Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo: 6.5/10
* Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop
* Linguagens: Scala, Java e/ou Python