第266章 筛选模型,以及最后的优胜者

通过观察训练日志,江寒发现,其中大约50种方案,在训练集上表现就很普通,识别正确率不足90%。

这意味着,它们先禀赋不足,对数据的拟合能力不强,再怎么训练,成就也有限。

第一批一共160种方案,如果比喻成160名学生的话,这50多名学生,就相当于这一届的“学困生”。

将这些方案也先放在一边,暂时排除在考察范围之外。

还剩下22种方案,在训练集上表现十分良好,这至少明,它们的学习能力没有太大的问题。

随后,江寒将验证集加载到这22份代码中,逐一进行测试。

这样就能通过比较,挑选出泛化能力相对较强,对陌生数据适应能力较好的方案。

神经网络训练起来很慢,但用训练好的模型对数据进行分类,速度相当快。

所以,江寒只用了一个多时,就将22种方案都测试了一遍,然后按照综合得分排了一下序。

排名前三的方案,在训练集上的识别正确率,都超过了94%的及格线。

而在测试集上的表现,则参差不齐。

江寒仔细思考了一会儿后,先淘汰掉撩分最高的方案。

因为这个方案在训练集上,虽然识别正确率超高,接近了99%,但在测试集上表现不算太好,只有93%不到的准确率。

这明模型泛化能力有所不足,产生了非常严重的过拟合。

用比较通俗的话,这就是一个“书呆子”,只会死读书,不会活学活用。

所以只能先Pass掉。

第三名的模型,在训练集和测试集上表现差不多,都超过了95%,但相对来,还是不够突出。

而且泛化能力虽然没问题,可是和其他模型相比,学习能力似乎稍微差了些。

如果有更多数据支撑,或者更多的训练时间,也许能得到一点改善,但也不会特别乐观。

这就好比某些中等生,头脑其实不笨,但学习习惯和方法不够好,也不够努力。

然后在一次测试中,虽然凭借良好的发挥,暂时领先了其他中等生,但毕竟还是比不上那些真正的优秀生。

所以,江寒权衡再三,最后选择邻二个模型。

这个模型在训练集和验证集上,表现都可圈可点,双双达到了97%的理想线。

而且,江寒分析完一些数据后,感觉只要进一步提高训练强度,这个模型应该还有很大的进步空间。

这是一个赋不错的学生,文理双修,没有短板,但并没怎么用力去学,这才输给了书呆子一筹。

这种学生只要加强训练,成为高材生指日可待,日后的发展不是书呆子可比的。

这是江寒从160套方案中,层层选拔,优中选优,最后留下来的唯一优胜者。

接下来,就该对其进行地狱特训了……

Back to Top