K折交叉验证长城h7价格
⾸先要讲的就是k折交叉验证的⽬的(即为什么要⽤k折交叉验证?)
根本原因:数据有限,单⼀的把数据都⽤来做训练模型,容易导致过拟合。(反过来,如果数据⾜够多,完全可以不使⽤交叉验证。)较⼩的k值会导致可⽤于建模的数据量太⼩,所以⼩数据集的交叉验证结果需要格外注意,建议选择较⼤的k值。k⼀般取2-10,在样本数量不是很多的情况下,想要检验拟合⼀个完美的模型,最常见的⽅法就是K折交叉检验。
附代码
⽤鸢尾花数据来展⽰k折验证效果
瑞天
# 导⼊鸢尾花数据集
from sklearn.datasets import load_iris
del_selection import cross_val_score
# 导⼊⽤于分类的svc分类器
from sklearn.svm import SVC
iris =load_iris()
x, y = iris.data, iris.target
svc =SVC(kernel='linear')
东南大捷龙
# cv 为迭代次数,这⾥设置为5
捷马电动车scores =cross_val_score(svc, x, y, cv=5)
# 5次,每次的结果
print("交叉验证得分: %.4f %.4f %.4f %.4f %.4f"%(scores[0], scores[1], scores[2], scores[3], scores[4]))
# ⽤得分均值作为最终得分
print("res: %.4f"%(an()))
1.K-Fold 交叉验证概念
在机器学习建模过程中,通⾏的做法通常是将数据分为训练集和测试集。测试集是与训练独⽴的数据,完全不参与训练,⽤于最终模型的评估。在训练过程中,经常会出现过拟合的问题,就是模型可以很好的匹配训练数据,却不能很好在预测训练集外的数据。如果此时就使⽤测试数据来调整模型参数,就相当于在训练时已知部分测试数据的信息,会影响最终评估结果的准确性。通常的做法是在训练数据再中分出⼀部分做为验证(Validation)数据,⽤来评估模型的训练效果。
验证数据取⾃训练数据,但不参与训练,这样可以相对客观的评估模型对于训练集之外数据的匹配程度。模型在验证数据中的评估常⽤的是交叉验证,⼜称循环验证。它将原始数据分成K组(K-Fold),将每个⼦集数据分别做⼀次验证集,其余的K-1组⼦集数据作为训练集,这样会得到K个模型。这K个模型分别在验证集中评估结果,最后的误差MSE(Mean Squared Error)加和平均就得到交叉验证误差。交叉验证有效利⽤了有限的数据,并且评估结果能够尽可能接近模型在测试集上的表现,可以做为模型优化的指标使⽤。
2.举例说明
下⾯举⼀个具体的例⼦来说明K-Fold的过程,⽐如如下的数据
[0.1, 0.2, 0.3, 0.4, 0.5, 0.6]
铃木摩托车价格分为K=3组后
Fold1: [0.5, 0.2]
Fold2: [0.1, 0.3]
Fold3: [0.4, 0.6]
交叉验证的时会使⽤如下三个模型,分别进⾏训练和测试,每个测试集误差MSE加和平均就得到了交叉验证的总评分
Model1: Trained on Fold1 + Fold2, Tested on Fold3
Model2: Trained on Fold2 + Fold3, Tested on Fold1
Model3: Trained on Fold1 + Fold3, Tested on Fold2
3.应⽤讲解
– 1、 将全部训练集S分成k个不相交的⼦集,假设S中的训练样例个数为m,那么每⼀个⼦集有m/k个训练样例,相应的⼦集称作{clip_image024}。
– 2、 每次从模型集合M中拿出来⼀个clip_image010[3],然后在训练⼦集中选择出k-1个
{clip_image026}(也就是每次只留下⼀个clip_image028),使⽤这k-1个⼦集训练clip_image010[4]后,得到假设函数
clip_image030。最后使⽤剩下的⼀份clip_image028[1]作测试,得到经验错误clip_image032。
– 3、 由于我们每次留下⼀个clip_image028[2](j从1到k),因此会得到k个经验错误,那么对于⼀个clip_image010[5],它的经验错误是这k个经验错误的平均。
– 4、 选出平均经验错误率最⼩的clip_image010[6],然后使⽤全部的S再做⼀次训练,得到最后的clip_image012[4]。
核⼼内容:
通过上述1,2,3步进⾏模型性能的测试,取平均值作为某个模型的性能指标
根据性能指标来挑选出最优模型,再进⾏上述第4步重新进⾏训练,获得最终模型
疑问解答:
1.为什么不直接拆分训练集与数据集,来验证模型性能,反⽽采⽤多次划分的形式,岂不是太⿇烦了?
我们为了防⽌在训练过程中,出现过拟合的问题,通⾏的做法通常是将数据分为训练集和测试集。测试集是与训练独⽴的数据,完全不参与训练,⽤于最终模型的评估。这样的直接划分会导致⼀个问题就是测试集不会参与训练,这样在⼩的数据集上会浪费掉这部分数据,⽆法使模型达到最优(数据决定了程性能上限,模型与算法会逼近这个上限)。但是我们⼜不能划分测试集,因为需要验证⽹络泛化性能。采⽤K-Fold 多次划分的形式就可以利⽤全部数据集。最后采⽤平均的⽅法合理表⽰模型性能。
2.为什么还要进⾏所有数据集重新训练,是否太浪费时间?
京港澳高速事故我们通过K-Fold 多次划分的形式进⾏训练是为了获取某个模型的性能指标,单⼀K-Fold训练的模型⽆法表⽰总体性能,但是我们可以通过K-Fold训练的训练记录下来较为优异的超参数,然后再以最优模型最优参数进⾏重新训练,将会取得更优结果。
3.何时使⽤K-Fold
我认为,数据总量较⼩时,其他⽅法⽆法继续提升性能,可以尝试K-Fold。其他情况就不太建议了,例如数据量很⼤,就没必要更多训练数据,同时训练成本也要扩⼤K倍(主要指的训练时间)。