Desenvolver soluções de dados escaláveis é um desafio técnico e estratégico. Como Engenheiro de Dados, você trabalhará com grandes volumes de dados para habilitar análises em escala.
Nossa equipe busca profissionais altamente qualificados para projetar, desenvolver e manter pipelines de dados utilizando Apache Hadoop, Spark e Kafka.
O papel envolve implementar processos de ETL e integração de dados de múltiplas fontes, otimizar e ajustar jobs Spark e Hadoop para melhor performance e colaborar com cientistas de dados, analistas e stakeholders para entender requisitos e entregar soluções robustas.
Requisitos Técnicos:
* Formação em Ciência da Computação ou área correlata;
* Experiência em TI com pelo menos 3 anos em ambientes Hadoop;
* Conhecimento em linguagens como Scala, Java e Python;
* Ferramentas como Apache Spark, Hadoop Ecosystem, Hive, Iceberg, HBase, Solr, Kafka, Spark Streaming ou Apache Flink.
Diferenciais:
* Know-how em Apache NiFi;
* Habilidades de modelagem de dados;
* Experiência prévia no setor de energia.
Soft Skills:
* Excelente comunicação verbal e escrita;
* Perfil proativo, autônomo e colaborativo;
* Capacidade analítica e de resolução de problemas complexos;
* Facilidade para trabalhar em times ágeis e ambientes multifuncionais.