 
        
        A empresa está procurando por um profissional para desenvolver e suportar pipelines de dados escaláveis e soluções inovadoras em ambientes híbridos.
Responsabilidades:
 * Projetar, desenvolver e manter pipelines de dados escaláveis;
 * Implementar processos de ETL e integração de dados de múltiplas fontes (internas e externas);
 * Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala;
 * Otimizar e ajustar jobs Spark e Hadoop para melhor performance;
 * Atuar com CDP (Cloudera Data Platform) para deploy e gerenciamento de aplicações Big Data;
 * Integrar soluções com Azure, Snowflake e infraestrutura on-premises;
 * Colaborar com cientistas de dados, analistas, arquitetos e stakeholders para entender requisitos e entregar soluções robustas;
 * Utilizar ferramentas de versionamento como GitHub e automações via GitHub Actions e/ou Azure DevOps;
 * Explorar e implementar novas tecnologias de acordo com o roadmap interno de Big Data;
 * Garantir segurança, integridade e governança dos dados;
Requisitos técnicos:
 * Formação: Bacharelado em Ciência da Computação ou áreas correlatas;
 * Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop;
 * Linguagens: Scala, Java e/ou Python;
 * Ferramentas: Apache Spark, Hadoop Ecosystem, Hive, Iceberg, HBase, Solr, Kafka, Spark Streaming ou Apache Flink, Oozie, Git, GitHub, DevOps;
Conhecimento em Apache NiFi é um diferencial.
Para esse cargo é necessário ter habilidades de modelagem de dados e experiência prévia no setor de energia (Oil & Gas).
E também ter:
 * Excelente comunicação verbal e escrita;
 * Perfil proativo, autônomo e colaborativo;
 * Fortemente capacidade analítica e de resolução de problemas complexos;
 * Facilidade para trabalhar em times ágeis (Scrum) e ambientes multifuncionais;
 * Capacidade de documentar soluções e boas práticas de forma clara e objetiva;