写点什么

图像之场景分类 实验研究

用户头像
毛显新
关注
发布于: 1 小时前

首先把数据集的情况放上来,如下图所示:



然后再看一下要用到的一些组件,如下图所示:



最后一起看下模型的训练流程:



最后一起看下训练的结果日志,如下图所示,可以看到 testAcc = 93.86%,此处用的是双卡 2080Ti,比单卡来说,训练的 batch_size 更大,所以准确率略微提升:



还有一些地方可以总结下:


模型在训练过程当中的指标有 loss 和 accuracy,从长期来看 loss 呈下降趋势,accuracy 呈上升趋势


为了加快训练速度,可以在训练过程中不计算 train_acc,取 val_acc 最大处,保存的 checkpoint


earlyStop 特别适用于 train_acc 和 val_acc 的 gap 随训练不断扩大,如果 val_acc 在 5 个 epoch 未发生下降,则停止训练


LR Scheduler,如果 train_loss 在 3 个 epoch 未发生下降,则学习率发生衰减


训练速度和过拟合是两大瓶颈


LR Scheduler 和 train_loss、train_acc 挂钩,test、val 和泛化性相关


代码地址: https://github.com/MaoXianXin/PycharmProjects

用户头像

毛显新

关注

还未添加个人签名 2021.07.26 加入

还未添加个人简介

评论

发布
暂无评论
图像之场景分类 实验研究