 
        
        A nossa missão é apoiar nossos clientes na busca por talentos qualificados e prósperas oportunidades.
Nossa equipe está comprometida com valores como integridade, transparência e empatia, o que nos permite fornecer soluções inovadoras e escaláveis para grandes volumes de dados.
Responsabilidades:
 * Desenvolver pipelines de dados escaláveis utilizando tecnologias como Apache Hadoop, Spark e Kafka
 * Implementar processos de extração, transformação e carregamento (ETL) de dados de múltiplas fontes
 * Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala
Requisitos Técnicos:
 * Bacharelado em Ciência da Computação ou áreas correlatas
 * Experiência em TI, com pelo menos 3 anos em ambientes Hadoop
 * Linguagens: Scala, Java e/ou Python
Pessoas são no centro de nossa estratégia e compõem nosso maior capital. Estamos comprometidos em atrair, reter os melhores talentos e construir conexões reais para a vida.