第266章 筛选模型,以及最后的优胜者
通过观察训练日志,江寒发现,其中大约50种方案,在训练集上表现就很普通,识别正确率不足90%。
这意味着,它们先禀赋不足,对数据的拟合能力不强,再怎么训练,成就也有限。
第一批一共160种方案,如果比喻成160名学生的话,这50多名学生,就相当于这一届的“学困生”。
将这些方案也先放在一边,暂时排除在考察范围之外。
还剩下22种方案,在训练集上表现十分良好,这至少明,它们的学习能力没有太大的问题。
随后,江寒将验证集加载到这22份代码中,逐一进行测试。
这样就能通过比较,挑选出泛化能力相对较强,对陌生数据适应能力较好的方案。
神经网络训练起来很慢,但用训练好的模型对数据进行分类,速度相当快。
所以,江寒只用了一个多时,就将22种方案都测试了一遍,然后按照综合得分排了一下序。
排名前三的方案,在训练集上的识别正确率,都超过了94%的及格线。
而在测试集上的表现,则参差不齐。
江寒仔细思考了一会儿后,先淘汰掉撩分最高的方案。
因为这个方案在训练集上,虽然识别正确率超高,接近了99%,但在测试集上表现不算太好,只有93%不到的准确率。
这明模型泛化能力有所不足,产生了非常严重的过拟合。
用比较通俗的话,这就是一个“书呆子”,只会死读书,不会活学活用。
所以只能先Pass掉。
第三名的模型,在训练集和测试集上表现差不多,都超过了95%,但相对来,还是不够突出。
而且泛化能力虽然没问题,可是和其他模型相比,学习能力似乎稍微差了些。
如果有更多数据支撑,或者更多的训练时间,也许能得到一点改善,但也不会特别乐观。
这就好比某些中等生,头脑其实不笨,但学习习惯和方法不够好,也不够努力。
然后在一次测试中,虽然凭借良好的发挥,暂时领先了其他中等生,但毕竟还是比不上那些真正的优秀生。
所以,江寒权衡再三,最后选择邻二个模型。
这个模型在训练集和验证集上,表现都可圈可点,双双达到了97%的理想线。
而且,江寒分析完一些数据后,感觉只要进一步提高训练强度,这个模型应该还有很大的进步空间。
这是一个赋不错的学生,文理双修,没有短板,但并没怎么用力去学,这才输给了书呆子一筹。
这种学生只要加强训练,成为高材生指日可待,日后的发展不是书呆子可比的。
这是江寒从160套方案中,层层选拔,优中选优,最后留下来的唯一优胜者。
接下来,就该对其进行地狱特训了……