A empresa é uma organização global com quase 30 anos de experiência.
Elas estão presentes no Brasil desde 2007 e conquistaram mais de 60 clientes em diferentes setores da economia.
A missão é apoiar os clientes para encontrar a melhor maneira que seu gap de talentos seja endereçado, de maneira a suportar o processo de transformação digital.
Quer Saber Mais?
Pessoas estão no centro da estratégia e compõem o maior capital. Elas têm compromisso de atrair, reter os melhores talentos e construir conexões reais para a vida.
Requisitos Técnicos:
 * Formação: Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo: 6.5/10
 * Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop
 * Linguagens: Scala, Java e/ou Python
Ambiente de Trabalho:
Elas valorizam as pessoas e oferecem um ambiente de trabalho colaborativo e dinâmico.
Responsabilidades Principais:
 * Desenvolver e manter pipelines de dados escaláveis utilizando Apache Hadoop, Spark e Kafka
 * Implementar processos de ETL e integração de dados de múltiplas fontes (internas e externas)
 * Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala
Se você compartilha dos mesmos valores, aqui é o lugar certo.
Esta vaga irá atender ao cliente, uma grande multinacional no segmento de petróleo e gás.
Faça parte da equipe!