Descrição da Vaga
O nosso futuro é impulsionado pelo seu talento!
A nossa empresa especializada em soluções de pagamento para o comércio apoia mais de 1,3 milhão de comerciantes com serviços completos — da maquininha ao e-commerce.
Responsabilidades
* Desenvolver e implementar modelos de aprendizado de máquina utilizando técnicas de classificação, regressão e clusterização;
* Realizar testes de modelos de aprendizado de máquina, incluindo testes A/B, testes de hipótese e validação cruzada;
* Proficiente em engenharia de recursos para otimizar os desempenhos dos modelos desenvolvidos;
* Trabalhar em colaboração com equipes multifuncionais para transformar dados em insights acionáveis;
* Desenvolvimento de modelos de aprendizado de máquina em cima da plataforma Databricks;
* Manutenção de modelos existentes (Acompanhamento e eventuais reentrenamentos);
* Conduzir análises exploratórias de dados para identificar padrões e tendências relevantes;
* Contribuir para o desenvolvimento de práticas de implantação de modelos.
Habilidades Requeridas
* Aprendizado de Máquina | Regressão, Classificação, Clusterização, Redes Neurais, Seleção de Recursos, Cross-Validation, Viés-Variânica, Explicabilidade de Modelos, etc;
* Estatística Avançada | Análise Descritiva, probabilidade, inferência, bootstrapping, design experimental, modelagem preditiva, otimização, testes de hipótese, regressão, modelagem e métodos;
* Lógica de Programação | Escrever e revisar scripts e queries em banco de dados, usar parâmetros, criar variáveis;
* Dados | Tratamento, Processamento, Curadoria, Estruturas de Fato/Dimensão, encadeamento de ETLs, Data Marts;
* Big Data | Tecnologias, Soluções e Conceitos como Spark, Hadoop, Hive, MapReduce, Kafka;
* Modelagem Estatística & Advanced Analytics | NLP, Séries Temporais, Random Forests, Linear Regression, Logistic Regression, Clustering methods (e.g. K-means), Classification methods (Decision Trees/Random Forest), entre outros;
* MLOps básico | para entender os desafios de se colocar um modelo em produção;
* Experimentação | Testes A|B, Hipóteses, Modelos de Atribuição;
* Grandes Volumes | Extrair e manipular grandes bases de dados, utilizando a stack de dados disponível.