Uma posição interessante na indústria de dados está disponível.
">
A empresa que contratou essa vaga é uma grande multinacional no segmento de petróleo e gás. Nossa equipe trabalha como ponte entre profissionais altamente qualificados e oportunidades consistentes e prósperas.
Você será responsável por projetar, desenvolver e manter pipelines de dados escaláveis utilizando tecnologias avançadas. Além disso, você precisará implementar processos de ETL e integração de dados de múltiplas fontes.
Nossos principais requisitos técnicos incluem:
* Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo: 6.5/10
* Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop
* Linguagens: Scala, Java e/ou Python
* Frameworks e Ferramentas:
* Apache Spark, Hadoop Ecosystem
* Hive, Iceberg, HBase
* Solr
* Kafka, Spark Streaming ou Apache Flink
* Oozie (Airflow é diferencial)
* Sistemas UNIX/Linux
* Git, GitHub, DevOps (desejável Azure DevOps)
* Cloud: Experiência com Azure (desejável conhecimento em AWS)
Benefícios: desempenho excelente, tempo livre para trabalho remoto, ter conectividade à Internet o tempo todo, estabilidade financeira, etc.
Conhecimentos em modelos de dados são necessários, pois estamos procurando por alguém com experiência previa no setor de energia (Oil & Gas) e conhecimento em tecnologias como Apache NiFi, entre outros.
Queremos encontrar alguém que compartilhe os mesmos valores da nossa empresa e que seja capaz de se comunicar de forma clara e objetiva.