Transformar o futuro com tecnologia.
Acreditamos na força da inovação para gerar impacto positivo em setores essenciais. Desenvolvemos soluções que conectam eficiência e progresso, contribuindo para a qualidade de vida das pessoas.
Nossa missão é oferecer soluções de dados para auxiliar as empresas a tomarem melhores decisões. Nossa equipe trabalha incansavelmente para garantir a qualidade dos nossos serviços e sempre está disposta a ajudar.
Para atingirmos nossos objetivos, precisamos de profissionais capacitados e motivados que sejam capazes de desenvolver e manter pipelines de dados em lote usando PySpark. Além disso, devem ser capazes de escrever e otimizar consultas SQL complexas, entender os requisitos de forma autônoma e traduzir para código.
Desafie-se a superar suas habilidades e contribua para o nosso crescimento. Aqui, você encontrará um ambiente que valoriza a autonomia, a colaboração e o crescimento contínuo.
* Desenvolver e manter pipelines de dados em lote usando PySpark
* Escrever e otimizar consultas SQL complexas
* Entender os requisitos de forma autônoma
* Transformar e integrar dados de diversas fontes em tabelas Iceberg e Snowflake
* Contribuir para o desenvolvimento de data marts e conjuntos de dados selecionados
* Colaborar com analistas de negócios para entender as necessidades de dados
* Monitore e gerencie trabalhos de dados em execução no AWS EMR ouquestrados pelo Airflow, aproveitando o S3, o Glue e outros serviços da AWS
* Garantir a qualidade, a consistência e o desempenho dos dados em todo o pipeline
Requisitos Técnicos:
* Predileção por Python 3.x e framework Spark
* Conhecimento avançado de linguagem Python e SQL
* Conhecimento de frameworks e bibliotecas: Pandas, NumPy, Matplotlib, Scikit-learn
* Excelente habilidade em uso do Git
* Fluência em inglês
Aqui, você encontra um ambiente que valoriza a inovação e o crescimento contínuo.