Em uma era de tecnologia cada vez mais rápida, buscamos um Big Data Engineer para desenvolver e suportar pipelines de dados escaláveis em ambientes híbridos.
O profissional precisará projetar, desenvolver e manter pipelines de dados escaláveis utilizando Apache Hadoop, Spark e Kafka. Implementar processos de ETL e integração de dados de múltiplas fontes (internas e externas).
* Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala.
Requisitos Técnicos:
* Formação: Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo: 6.5/10
* Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop
* Linguagens: Scala, Java e/ou Python