A empresa busca um profissional experiente em desenvolvimento de pipelines de dados escaláveis e soluções inovadoras em ambientes híbridos.
As responsabilidades incluem:
* Desenvolver e suportar pipelines de dados escaláveis e soluções inovadoras em ambientes híbridos, utilizando tecnologias como Hadoop, Spark, Azure e Snowflake;
* Implementar processos de ETL e integração de dados de múltiplas fontes (internas e externas);
* Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala;
O ideal é ter experiência em TI com pelo menos 3 anos em ambientes Hadoop e conhecimento em linguagens como Scala, Java e/ou Python.
Requisitos técnicos:
* Bacharelado em Ciência da Computação ou áreas correlatas;
* GPA mínimo: 6,5/10;
A empresa valoriza a capacidade de trabalho em equipe e a habilidade de resolver problemas complexos.