Desenvolvedor de Modelos de Inteligência Artificial
A Getnet busca por profissionais talentosos para trabalhar em nosso time de desenvolvimento de modelos de inteligência artificial.
-----------------------------------
Responsabilidades
* Desenvolver e implementar modelos de aprendizado de máquina utilizando técnicas avançadas de processamento de dados;
* Realizar testes de modelo, incluindo, mas não se limitando a, testes A/B e validação cruzada;
* Proficiente em engenharia de características para otimizar os desempenhos dos modelos desenvolvidos;
* Trabalhar em colaboração com equipes multifuncionais para transformar dados em insights acionáveis;
* Desenvolvimento de modelos de aprendizado de máquina em cima da plataforma Databricks;
* Manutenção de modelos existentes (Acompanhamento e eventuais re-treinamentos) ;
* Conduzir análises exploratórias de dados para identificar padrões e tendências relevantes;
* Contribuir para o desenvolvimento de práticas de MLOps;
-----------------------------------
Requisitos
* Máquina Lógica: Regressão, Classificação, Clusterização, Redes Neurais, Seleção de Características, Cross-Validação, Curvatura de Dimensão, Viés-Variânica, Explicabilidade de Modelos, etc.;
* Estatística Avançada: Análise Descritiva, Probabilidade, Inferência, Bootstrap, Design Experimental, Modelagem Preditiva, Otimização, Testes de Hipótese, Regressão, Modelagem e Métodos;
* Lógica de Programação: Escrever e revisar scripts e queries em banco de dados, usar parâmetros, criar variáveis;
* Dados Modelados: Lançamento, Limpeza, Processamento, Curação, Estruturas de Fato/Dimensão, Encadeamento de ETLs, Data Marts;
* Banco de Dados: Tecnologias, Soluções e Conceitos como Spark, Hadoop, Hive, MapReduce, Kafka;
* Modelagem Estatística & Advanced Analytics: NLP, Séries Temporais, Florestas Aleatórias, Regressão Linear, Regressão Logística, Métodos de Clusterização (por Exemplo K-means), Métodos de Classificação (Árvores de Decisão/Floresta Aleatória), entre outros;
* MLOps básico: Para entender os desafios de se colocar um modelo em produção;
* Experimentação: Testes A|B, Hipóteses, Modelos de Atribuição;
* Volumes Grandes: Extrair e manipular grandes bases de dados, utilizando a stack de dados disponível.
-----------------------------------
Ferramentas
* SQL: Porque dado em planilha é coisa do passado;
* Python ou R: Pra quando a coisa fica bem séria;
* Scala, Java & Spark: Trabalhar com grande volume de dados sempre pode ser mais rápido;
* Teste de Hipóteses: Para suportar o processo de tomada de decisão e criar informação de suporte;
* Databricks: Uso de clusters e workspaces para BigData.