Buscamos profissional para atuar em projetos de dados escaláveis, desenvolvendo e suportando pipelines em ambientes híbridos.
Descrição do cargo
* Projetar, desenvolver e manter soluções escaláveis utilizando tecnologias como Hadoop, Spark e Azure.
* Implementar processos de ETL e integração de dados de múltiplas fontes internas e externas.
* Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala.
* Otimizar e ajustar jobs Spark e Hadoop para melhor performance.
Requisitos técnicos
* Formação: Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo: 6.5/10.
* Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop.
* Linguagens: Scala, Java e/ou Python.
Benefícios
* Desenvolver habilidades em áreas emergentes de tecnologia de dados.
* Colaborar com equipe multidisciplinar.
Se você é um profissional motivado e deseja contribuir para projetos inovadores, essa oportunidade pode ser perfeita para você.