 
        
        A principal responsabilidade desta vaga é a criação de pipelines de dados escaláveis e soluções inovadoras em ambientes híbridos, utilizando tecnologias como Hadoop, Spark, Azure e Snowflake.
Essa oportunidade é ideal para profissionais que gostam de trabalhar com grandes volumes de dados e querem contribuir para projetos de impacto global na área de energia e sustentabilidade.
Para atender aos requisitos desta vaga, o candidato deve ter experiência em desenvolvimento de sistemas distribuídos, conhecimento em linguagens de programação como Scala, Java ou Python, e habilidades em framework como Apache Spark, Hadoop Ecosystem, Hive, Iceberg, HBase, Solr, Kafka, Spark Streaming ou Apache Flink.
Além disso, é fundamental ter conhecimento em bancos de dados relacionais e não relacionais, bem como experiência em infraestrutura de TI e gerenciamento de projetos.
Queremos encontrar um profissional proativo, autônomo e colaborativo que seja capaz de trabalhar em times ágeis e ambiente multifuncional. Se você é esse profissional, esta é sua chance!
Requisitos Técnicos
 * Formação: Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo: 6.5/10
 * Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop
 * Linguagens: Scala, Java e/ou Python