Descrição da Vaga
Estamos procurando por um engenheiro de dados habilidoso para desenvolver soluções inovadoras em ambientes híbridos.
O candidato ideal terá experiência com big data, escalabilidade e processos de ETL. Será responsável por projetar, desenvolver e manter pipelines de dados escaláveis utilizando Apache Hadoop, Spark e Kafka.
Além disso, será necessário trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala, otimizar e ajustar jobs Spark e Hadoop para melhor performance e atuar com CDP (Cloudera Data Platform) para deploy e gerenciamento de aplicações Big Data.
É importante destacar que a colaboração com cientistas de dados, analistas, arquitetos e stakeholders é fundamental para entender requisitos e entregar soluções robustas.
Requisitos Técnicos
* Formação: Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo: 6.5/10
* Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop
* Linguagens: Scala, Java e/ou Python
* Frameworks e Ferramentas:
* Apache Spark, Hadoop Ecosystem
* Hive, Iceberg, HBase
* Solr
* Kafka, Spark Streaming ou Apache Flink
* Oozie (Airflow é diferencial)
* Sistemas UNIX/Linux
* Git, GitHub, DevOps (desejável Azure DevOps)
* Cloud: Experiência com Azure (desejável conhecimento em AWS)
Benefícios
Trabalhar em uma equipe ágil e multifuncional, contribuir para projetos de impacto global e oportunidade de crescer profissionalmente são apenas alguns dos benefícios dessa vaga.
Outros
Se você está interessado em essa oportunidade, certifique-se de ler os requisitos técnicos e habilidades necessárias antes de aplicar.