 
        
        Descrição do Cargo
 * Anotar e preparar conjuntos de dados para visão computacional;
 * Desenvolver, treinar, validar e otimizar modelos de aprendizado profundo para classificação, detecção e segmentação de imagens;
 * Treinar e implementar modelos YOLO (You Only Look Once) para tarefas de detecção de objetos;
 * Implementar pipelines de inferência para execução eficiente em produção;
 * Desenvolver práticas de MLOps: CI/CD de modelos, versionamento de dados e experimentos, monitoramento e retreino automático;
 * Trabalhar em conjunto com engenheiros de software para integrar os modelos em sistemas e aplicações.
Requisitos Obrigatórios
 * Conhecimento avançado de Python em quaisquer das bibliotecas de ML/DL (PyTorch, TensorFlow, OpenCV);
 * Experiência prática em YOLO (treinamento e inferência em problemas de detecção de objetos);
 * Experiência sólida em visão computacional (classificação, detecção, segmentação);
 * Experiência em MLOps com ferramentas como AWS SageMaker Studio, MLflow, Kubeflow, Docker, Kubernetes, Airflow;}
Diferenciais
 * Experiência em dados estruturados: preparação de dataset, treinamento e inferência em problemas de regressão (ex.: regressão linear, regressão logística, árvores de decisão) e classificação tabular;
 * Análise exploratória de dados estruturados (ex.: Análise das componentes principais - PCA, análise de correlação, clustering com K-Means);
 * Otimização de modelos para dispositivos edge (TensorRT, ONNX, quantização);
 * Contribuições para projetos open source ou publicações técnicas.
Métricas e Gráficos
 * Visão Computacional: Curvas Precision-Recall (PR) e AP por classe;
 * Curva ROC e AUC;
 * Matriz de confusão;
 * Curvas de perda e acurácia durante o treinamento;
 * Distribuição de IoU (Interseção Sobre a União);
 * Learning curves (treino vs. validação);
 * Gráficos de resíduos em regressão, Curvas de calibração de probabilidade, Feature importance, SHAP e PDP/ICE plots, Heatmaps de correlação e PCA (scree plot, biplot);
 * Gráficos de detecção de drift de dados, Distribuição de probabilidades de saída (overconfidence), Métricas de latência/throughput, Consumo de GPU/CPU/memória em inferência.