Em uma empresa global com quase 30 anos de experiência no mercado de tecnologia e recrutamento, a busca por profissionais habilidosos é constante. Com escritórios em várias cidades, incluindo Curitiba, Porto Alegre, Rio de Janeiro e São Paulo, oferecemos soluções de staffing, TI e complementação de força de trabalho para apoiar os clientes na adoção de transformações digitais.
O Engenheiro de Dados será responsável por criar pipelines de dados escaláveis utilizando Apache Hadoop, Spark e Kafka. Além disso, ele implementará processos de ETL e integração de dados de múltiplas fontes, trabalhará com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala e otimizar e ajustar jobs Spark e Hadoop para melhor performance.
Requisitos:
 * Formação em Ciência da Computação ou áreas correlatas;
 * GPA mínimo 6.5/10;
 * Experiência em TI, com pelo menos 3 anos em ambientes Hadoop;
 * Linguagens Scala, Java e/ou Python;