Nossa equipe está procurando por um profissional altamente qualificado para o cargo de Engenheiro de Dados.
Será responsável por desenvolver e suportar pipelines de dados escaláveis, utilizando tecnologias como Hadoop, Spark e Kafka. O ideal é que tenha experiência com grandes volumes de dados estruturados e não estruturados, habilitando análises em escala. Além disso, deve estar familiarizado com processos de ETL e integração de dados de múltiplas fontes (internas e externas), otimizar e ajustar jobs Spark e Hadoop para melhor performance, e integrar soluções com Azure, Snowflake e infraestrutura on-premises.
A colaboração com cientistas de dados, analistas, arquitetos e stakeholders será fundamental para entender requisitos e entregar soluções robustas.
Requisitos Técnicos:
1. Formação: Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo: 6.5/10
2. Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop
3. Linguagens: Scala, Java e/ou Python
4. Frameworks e Ferramentas:
5. Apache Spark, Hadoop Ecosystem
6. Hive, Iceberg, HBase
7. Solr
8. Kafka, Spark Streaming ou Apache Flink
9. Oozie (Airflow é diferencial)
10. Sistemas UNIX/Linux
11. Git, GitHub, DevOps (desejável Azure DevOps)
12. Cloud: Experiência com Azure (desejável conhecimento em AWS)
* Diferenciais:
* Conhecimento em Apache NiFi
* Habilidades de modelagem de dados
* Experiência prévia no setor de energia (Oil & Gas)
Soft Skills:
* Excelente comunicação verbal e escrita (Inglês avançado é mandatório)
* Perfil proativo, autônomo e colaborativo
* Forte capacidade analítica e de resolução de problemas complexos
* Facilidade para trabalhar em times ágeis (Scrum) e ambientes multifuncionais
* Habilidade de interface com áreas de negócio, arquitetura e desenvolvimento técnico
* Capacidade de documentar soluções e boas práticas de forma clara e objetiva