今天解决最后一道题👉:把数据集随机划分为训练集和测试集,按8:2的比例。(本来应该周六就更新的,因为临时接了朋友一个自动下单程序的需求就耽搁了😂)

一般情况都会用传统定比随机划分(掌柜自己取得名字。。。也有人叫留出法?)法,即使用sklearn库里面的model_selection模块的train_test_split方法。这里掌柜就直接拿官方的鸢尾花数据集示例来演示一下:


这👆也正是此题的考点。到这里就把之前面试的Python数据分析题全部解答完毕😁。

------------------------------------我是一条无感情的分割线-------------------------------------------

下面掌柜开始拓展一下 。上面的随机划分法若后面进行机器学习模型调参的话,就会存在一定的缺点,即测试集上面仍有 过拟合 情况的发生。 于是掌柜去看官方文档后发现,为了解决这种风险的发生,引入了验证集的方法,即先把训练后的模型放在验证集上面进行评估,若评估实验是成功的,再放入测试集上面进行最后的模型评估。

但是这个方法还是有弊端,因为它减小了模型训练集的样本量,这就会导致最后的结果是依赖子集(验证集、测试集)的随机选择。

所以为了解决这个问题,下面就引出第二种划分数据集的方法-- 交叉验证法👈。那么问题来了,什么是交叉验证? 通俗的讲就是一种验证分类模型准确率的方法。作用是为了解决数据集不多的情况下的过拟合问题。

交叉验证法中最基本的就是K折交叉验证法(即 k-fold CV),这里简单说一下K折交叉验证法的过程

  • 首先把训练集分为K个等份;
  • 接着对每一份子集进行再划分,其中把K-1份当此份子集的训练集
  • 剩余的那份数据则被拿来验证前面训练子集的结果(比如模型的准确率);
  • 然后经过上面的K次循环,再把得到的K份数据结果求平均。
  • 最后得到的这个均值就可以作为该数据集的性能指标

后面就是通过该指标和 Grid Search 方法来找到最优参数,再放到测试集上做最后的模型预测和性能评估。

可以看下面这两图更易理解上面的整个过程:

(上图👆是K折交叉验证图发生的过程)

(此图则是模型训练中的交叉验证流程图👆)

K折交叉验证法的优点

  1. 样本数据集数量较少(如处理逆向推断问题时)是一个极大的优势,因为数据不会被浪费很多(正如它固定了任意验证集);
  2. 在一定程度上减少了过拟合。

缺点:

此方法计算成本很大,即费时!所以数据量很大的时候并不会常用此方法。

那么K折交叉验证法适用场景也在👆的优点里面,通常K值选的是10。

最后来看如何使用交叉验证,最简单的方法就是调用 cross_val_score 辅助函数。可以看官方这个示例,这里用的K值是5:

from sklearn.model_selection import cross_val_score

clf = svm.SVC(kernel='linear', C=1)
scores = cross_val_score(clf, X, y, cv=5)
scores

>>> array([0.96..., 1.  ..., 0.96..., 0.96..., 1.        ])

参考资料:sklearn官方文档