机器学习之 PyTorch 和 Scikit-Learn 第 3 章 使用 Scikit-Learn 的机器学习分类器之旅 Part 1
其它章节内容请见机器学习之PyTorch和Scikit-Learn
本章中,我们会学习一些学术界和工业界常用的知名强大机器学习算法。在学习各种用于分类的监督学习算法的不同时,我们还会欣赏到它们各自的优势和劣势。另外,我们会开始使用 scikit-learn 库,它为高效、有生产力地使用这些算法提供了用户友好且一致的接口。
本章讲解的主要内容有:
介绍用于分类的健壮知名算法,如逻辑回归、支持向量机、决策树和 K-近邻算法
使用 scikit-learn 机器学习库的示例和讲解,它通过用户友好的 Python API 提供了大量的机器学习算法
讨论线性和非线性决策边界分类器的优势和不足
选择分类算法
为具体的问题任务选择合适的分类算法需要实践和经验加持,每种算法都有自己的局限,是基于一些假设前提的。套用 David H. Wolpert 所提的没有免费午餐定理,没有哪个分类器对所有场景都表现最佳(《学习算法间缺少先验差别》,D.H. Wolpert, 1996: 1341-1390)。在实践中,推荐至少对比一部分线性算法的表现来选择具体问题的最佳模型,可能随特征或样本的不同、数据集中噪声的数量以及类是否线性可分割而不同。
最终分类器的表现-计算性能以及预测能力-极度依赖于底层供学习的数据。我们训练机器学习算法可概括为如下 5 个步骤:
选择特征及收集打标签的训练样本
选择性能指标
选择学习算法及训练模型
评估模型的表现
修改算法的配置并对模型调优
因本书采取逐步构建机器学习知识库的方式,我们会在本章集中讲解不同算法的核心概念,后续再详细讨论特征选取和预处理、性能指标及超参数调优。
学习 scikit-learn 的第一步-训练感知机
在第2章 为分类训练简单机器学习算法中,我们学习了用于分类的两种相关联算法,感知机学习规则和自适应线性神经网络,也通过 Python 和 NumPy 进行了实现。下面我们要学习 scikit-learn API,它将用户友好度与一致性接口和调度优化的多种分类算法实现相结合。scikit-learn 库不止提供了大量的学习算法,还有很多的方便的函数进行数据预处理、调优及评估模型。我们会在第4章 构建优秀训练数据集 - 数据预处理和第5章 通过降维压缩数据 中详细讨论其底层概念。
开启对 scikit-learn 库的学习,我们会先训练一个类似第2章 为分类训练简单机器学习算法中的感知机模型,在以下各小节中使用到的是已经很熟悉的鸢尾花数据集。为使用方便,scikit-learn 中已经内置了鸢尾花数据集,因为它是测试和试验算法时常用的简单、知名数据集。和上一章一样,为方便可视化我们只使用鸢尾花数据集中的两个特征。
我们将 150 个花样本的花萼长度和花瓣长度赋值给特征矩阵X
,花品种的类标签则赋值给向量数组y
:
np.unique(y)
函数返回iris.target
中存储的三个唯一类标签,可以看到鸢尾花的类名Iris-setosa
、Iris-versicolor
和Iris-virginica
,已经存储为了整数(此外为: 0
, 1
, 2
)。虽然很多 scikit-learn 函数和类方法也能处理字符串格式的类标签,但更推荐使用整型标签,这样可以避免技术问题并因占用内存较小而提升计算性能,此外,将类标签编码为整型是机器学习库中常见的一种约定。
为评估训练对未知数据的表现如何,我们会进一步将数据集分为训练数据集和测试数据集。在第6章 学习模型评估和超参数调优的最佳实践中,我们会详细讨论模型评估相关的最佳实践。使用 scikit-learn 中model_selection
模块的train_test_split
函数,我们随机地将数组X
和y
分割成 30%的测试数据(45 个样本)和 70%的训练数据(105 个样本):
注意train_test_split
函数已经在分割前对训练数据集进行了内部打散,否则,训练集中的所有样本都是类0
和类1
,而测试集会包含 45 个来自类2
的样本。通过random_state
参数,我们为用于在分割前打散数据集的伪随机数生成器提供了固定的随机种子(random_state=1
) 。使用固定的random_state
可保证我们的结果可重现。
最后,我们通过stratify=y
使用了对分层的内置支持。在这里,分层表示train_test_split
方法返回具有相同比例的类标签训练集和测试集作为输入数据集。我们可以使用 NumPy 中用于统计数组中各个值出现次数的bincoun
函数,来难是否真的如此:
很多机器学习和优化算法还要求使用特征缩放来优化性能,我们在第2章中提到梯度下降就出现过。这里我们会使用 scikit-learn 中preprocessing
模块的StandardScaler
类来标准化特征:
使用上述的代码,我们从preprocessing
模块加载了StandardScaler
类并初始化了一个新的StandardScaler
对象,赋值给sc
变量。使用fit
方法,StandardScaler
为训练数据中的每个特征维度评估了参数(样本均值)和(标准差)。然后通过调用transform
方法,我们使用这些评估出的参数和标准化了训练数据。注意我们使用了同样的缩放参数来标准化测试数据集,这样训练集和测试集中的值可进行比较。
标准化好了训练数据后,现在可以训练感知模型了。scikit-learn 中的大部分算法默认已通过一对剩余(OvR)方法支持多类别分类,这一方法允许我们同时喂入三种花的类别。代码如下:
scikit-learn 中接口提醒着我们第2章中的感知机实现。在从linear_model
模块加载了Perceptron
类后,我们初始化了新的Perceptron
对象并通过fit
方法进行了训练。这里的模型参数eta0
等价于我们自己实现感知机时使用的学习率eta
。
读者一定还记得在第2章中,寻找合适的学习率需要进行一些试验。如果学习率过大,算法会超出全局损失最小值。如果学习率过小,算法会需要更多次的迭代才能收敛,这会让学习变慢,尤其是对于大数据集。我们同样使用了random_state
参数来保证每次迭代后训练集的初始打散可重现。
在 scikit-learn 中训练好模型后,我们可以使用predict
方法来完成预测,这与第2章中我们实现的感知机相似。代码如下:
执行以上代码,我们会看到感知机对 45 个花样本的分类中有一个错误。因为,对测试集的分类误差率大约为 0.022,或 2.2%(
)。
分类误差与准确度
很多机器学习从业者不报告分类误差,而是报告模型的准确度,计算方法如下:
1–error = 0.978, 或 97.8%
使用分类误差还是准确度取决于个人偏好。
scikit-learn 模块还在metrics
模块中实现了大量的性能指标。例如,我们可以这样计算感知机对测试集的分类准确度:
这里,y_test
是真实类标签,而y_pred
是我们此前所预测的类标签。相对应的,scikit-learn 中的每个分类器都有一个score
方法,通过组合的predict
调用和accuracy_score
来计算预测准确度,如下所示:
过拟合
注意我们是根据本章中的测试数据集来计算模型的表现。在第6章中,我们会学习到一些有用的技术,包括图形分析,比如学习曲线来检测和防止过拟合。本章稍后还会提到过拟合,它的意思是模型对训练数据所提取的模式很好,但对未知数据的表现不好。
最后,我们可以使用第2章中的plot_decision_regions
函数来绘制新训练的感知机模型的决策区域,通过可视化的方式来看对花样本的分类表现如何。但我们来做一些小修改来通过小圆圈高亮显示测试集中的数据实例:
通过对plot_decision_regions
函数所做的一点修改,我们指定了希望在结果图中标记的样本索引。代码如下:
在结果图中可以看出,线性决策边界并不能很好分出三种花:
图 3.1 多类别感知机拟合鸢尾花数据集后的决策边界
但还记得在第2章中我们讨论过对无法完整线性分割的数据集感知机永远无法收敛,这也是为什么在实际应用中通常不推荐感知机算法。在下面的小节中,我们会学到更多强大的线性分类器,即使类无法完美地线性分割,也能收敛出损失最小值。
其它感知机配置
Perceptron
,以及 scikit-learn 中的其它函数和类,通常一些为保持清晰而省略的参数。可以使用 Python 中的help
函数来阅读更多这样的参数,也可以阅读 scikit-learn 优秀的在线文档http://scikit-learn.org/stable/。
通过逻辑回归建模分类概率
虽然感知机规则对机器学习分类算法是一个很好、很轻松的入门,但它有一个最大的缺陷是对非线性完美分割的类永远不会收敛。前一小节的分类任务就是这种场景的例子。这是由于每次迭代训练样本中都至少有一个分类错误导致权重一直在更新。当然我们可以修改学习率并增加迭代次数,但注意这一数据集的感知机永远不会收敛。
为节省我们的时间,接下来学习另一个简单但更强大的解决线性二元分类问题的算法:逻辑回归(logistic regression)。注意虽然名字里带回归,但这是一个分类模型,而不是回归模型。
逻辑回归和条件概率
逻辑回归是一个易于实现且对线性可分割模型类性能很好的分类模型。它是业界最常使用的分类算法之一。类似于感知机和自适应线性神经网络,本章中的逻辑回归模型也是一个用于二元分类的线性模型。
用于多类别的逻辑回归
线性逻辑回归可用于归纳多类场景,称为多类逻辑回归(multinomial logistic regression) ,或 softmax 回归。有关多类逻辑回归的详细讲解不在本书的范畴内,感兴趣的读者可以在作者的授课笔记中找到更多信息: https://sebastianraschka.com/pdf/lecture-notes/stat453ss21/L08_logistic__slides.pdf或https://www.youtube.com/watch?v=L0FU8NFpx4E。
另一种将逻辑回归用于多类场景的方式是通过 OvR 技术,这在前面已经讨论过。
为讲解逻辑回归作为二元分类概率模型背后的主要机制,我们先介绍几率(odds):几率是指具体事件发生的比率。几率可写作,其中 p 表示正事件(positive event)的概率。“正事件”不一定是好的,它指的是希望预测的事件,例如,有某种症状的病人患某一疾病的概念;可以把正事件想成是类标签 y = 1,而症状是特征 x。因此为保持简洁,可以将概率 p 定义为 p := p(y = 1|x),给定特征 x 时某一样本属于类 1 的条件概念。
然后我们可以进一步定义 logit 函数,它是对数发生比(log-odds):
注意 log 指的是自然对数,这是计算机科学中常见的约定。logit 函数接收 0 到 1 范围内的输入值,将它们转换为整个实数范围内的值。
在逻辑回归模型中,我们假设在加权输入(参见第2章中的净输入)和对数发生比之间存在线性关性:
虽然前面描述了对数发生比和净输入线性关联的假设,但我们实际感兴趣的是概率 p,给定特性时样本的类成员概念。logit 函数将概率与实际数字范围之间进行了映射,可以认为函数反过来就是实际数字范围对概率 p 的[0, 1]范围的映射。
这种 logit 的反向通常称为逻辑 sigmoid 函数,有时也因其典型的 S 形状简称为 sigmoid 函数:
这里的 z 是净输入,权重和输入的线性组合(也即与训练样本相关联的特征):
z = wTx + b
下面我们来简单绘制-7 到 7 之间一些值的 sigmoid 函数来看下效果:
执行以上示例代码后,我们会看到 S 形状的(sigmoidal)曲线:
图 3.2:逻辑 sigmoid 函数的图形
可以看到在 z 趋向无穷大(z→∞) 时趋向于 1,因为在 z 很大时 e–z 会变得非常小。类似地,z→–∞导致分母变大使用接近于 0。因此,可以总结为 sigmoid 函数接收实际数值作为输入,将它们转换为[0, 1]之间的值,偏置为。
为理解逻辑回归模型,我们可以类比第2章。在 Adaline 中,我们使用了恒等函数作为激活函数。在逻辑回归中,这一激活函数变成了我们前面所定义的 sigmoid 函数。
自适应感知神经元与逻辑回归的不同参见下图,其中唯一的不同之处就是激活函数:
图 3.3:逻辑回归与自适应感知神经元的对比
然后 sigmoid 函数的输出会翻译成具体样式属于类 1 的概率,,给定了特征 x,并且通过权重 w 和偏置 b 进行参数化。例如,假如我们对具体样本花计算,它表示样本是Iris-versicolor
的概率是 80%。因此,这朵花是Iris-setosa
的概率可计算为,或 20%。
预测的概率可通过阈值函数转换为二元输出:
上图中的 sigmoid 函数等价于:
事实上,很多应用不仅对所预测的类标签感兴趣,而且类标签概率的评估也极为有用(应阈值函数前的 sigmoid 函数输出)。比如逻辑回归用于天气预报,不仅预测某一天是否下雨,还报告下雨的可能性。类似地,逻辑回归可用于预测有特定症状的病人患某种疾病的概率,这也是为什么逻辑回归在医药行业有很高的知名度。
通过逻辑损失函数学习模型权重
我们已经学习到可以通过逻辑回归模型预测概率和类标签,下面来简单讨论下如何拟合模型的参数,比如权重 w 和偏置单元 b。上一章中我们定义了一个如下的方差损失函数:
我们对函数进行了最小化以学习 Adaline 分类标签的参数。为讲解如何通过逻辑回归获取损失函数,我先定义似然,假设数据集中的样本彼此并不关联,我们会希望构建一个逻辑回归模型使其最大化。公式如下:
在实操中,最大化该等式的(自然)对数会更容易,称之为对数似然方程:
首先,应用对数函数会降低数据下溢的可能性,在似然较小时容易产生下溢。其次,我们可以将因子的乘积转换为因子的加和,如果读者还能记得微积分的知识的话,这样可通过加法技巧使用对该函数求导更容易。
推导似然函数
对给定数据,我们可以像下面这样获取模型的似然表达式。假设有一个二分类问题,类标签为 0 和 1,可以把标签 1 看成是伯努利变量-它接收两个值 0 和 1,概率 p 为 1:。对于单个数据点,可以将概率写成及。
合并这两个表达式,并使用简写,我们得到了伯努利变量的概率质量函数:
假如所有训练样本彼此独立我们可以写出训练标签的似然,使用乘法法则来计算所有事件发生的概率,如下:
这时,替换伯努利变量的概率质量函数,我们就得到了似然表达式,尝试最大化模型参数的变化:
现在,我们可以使用梯度提升(gradient ascent)等优化算法来最大化该对数似然函数。(梯度提升与第2章中的梯度下降完全一样,只是梯度提升是将最小化替换为最大化函数。)我们这里将对数似然重写为损失函数,L,可使用第2章中的梯度下降实现最小化:
为更好的掌握损失函数,我们来看我们为单训练样本所计算的损失:
从等式可以看出在如果 y = 0 则第一项为零,y = 1 时第二项为零:
我们来写一个简短的代码脚本创建一张描绘分类针对不同值的分类单训练样本损失的图:
绘出的图为范围在 0 到 1 之间 x 轴上 sigmoid 激活(对 sigmoid 函数的输入为在范围在-10 到 10 之间的 z 值)以及 y 轴上关联的逻辑损失:
图 3.4:使用逻辑回归的损失函数图
可以看到如果我们正确预测样本属于类 1 时损失接近 0(实线)。类似地,可以看到在正确预测 y = 0 时 y 轴的损失接近于 0(虚线)。但如果预测错误,损失会趋向无穷大。我们惩罚错误预测的要点是增大损失。
将 Adaline 实现转化为逻辑回归算法
如果我们自己实现逻辑回归,可以将第2章中自适应线性神经网络实现的损失函数 L 替换为新的损失函数:
我们使用它计算每次迭代分类所有训练样本的损失。我们还需要将线性激活函数换成 sigmoid。如对 Adaline 代码做出这些修改,就会得到一个可运行的逻辑回归实现。以下是对全批量梯度下降的实现(但注意也可对随机梯度下降版本做同样的修改):
在拟合逻辑回归模型时,我们让铭记它只对二元分类任务有效。
因此我们只考虑山鸢尾和变色鸢尾(类0
和1
)并检查我产的逻辑回归实现是否有效:
得到的决策区域图如下:
图 3.5:逻辑回归模型的决策区域图
针对逻辑回归的梯度下降学习算法
如果对比
LogisticRegressionGD
与此前第2章中AdalineGD
的代码,可能会注意权重和偏置规则保持不变(除了对第 2 个因子的缩放)。使用微积分,可以展示通过梯度下降的参数更新与逻辑回归和 Adaline 确实很像。但请注意下面对梯度下降学习规则的推导是为那些对逻辑回归梯度下降学习规则背后的数学概念感兴趣的读者准备的。不了解不会影响本章后续的学习。图 3.6 总结了如何计算对数似然函数对第 j 个参数的偏导数:
图 3.6:计算对数似然函数的偏导数
这里为简洁起见省略了对训练样本求平均。
第2章中我们采取了相反方向的梯度。因此调换了并像下面这样更新了第 j 个权重,包括学习率:
虽然没有显示出损失函数对偏置的偏导数,使用链式法则的偏置推导整体概念一致,产生了如下的更新规则:
权重及偏置单元的更新与第2章中的自适应线性神经网络一致。
使用 scikit-learn 训练逻辑回归模型
我们在前面的小节学习了一些有用的代码和数学练习,这有助于我们理解 Adaline 与逻辑回归概念上的不同。现在我们来学习使用 scikit-learn 对逻辑回归更优化的实现,它还内置支持多类别配置。请注意在 scikit-learn 的新版本中,用于多类别、多项因子或 OvR 的技术,是自动选择的。在下面的代码示例中,我们会使用sklearn.linear_model.LogisticRegressio
类以及熟悉的fit
方法训练标准化花训练样本中所有三个类别的模型。同时,我们为方便绘图设置了multi_class='ovr'
。作为练习,读者可以使用multi_class='multinomial'
来比较结果。multinomial
配置现在是 scikit-learn 的LogisticRegression
类的默认选择并且在实践中也是互斥类的推荐选项,鸢尾花数据集就属于这种情况。这里的“互斥”表示每个训练样本只能属于一个分类(在多标签分类中,训练样本可以是多个分类的成员)。
下面我们来看示例代码:
在对训练数据拟合模型后,我们绘制了决策区域、训练样本和测试样本,如图 3.7 所示:
图 3.7:scikit-learn 多类逻辑回归模型的决策区域
凸优化算法
现存有很多算法可解决优化问题。为最小化凸损失函数,比如逻辑回归损失,推荐使用比普通的随机梯度下降 (SGD)更高级的方法。事实上,scikit-learn 实现了非常多的这类算法,可通过
solver
参指定,其中有'newton-cg'
、'lbfgs'
、'``liblinear'
、'sag'
和'saga'
。虽然逻辑回归损失是凸损失,但大部分算法应该都可以轻松对全局最小损失收敛。然后,使用其中一些算法相对另一些有某些优势。比如,在之前的版本中(如 v 0.21),scikit-learn 默认使用
'liblinear'
,它无法多项损失(multinomial loss),仅限于针对多类分类的 OvR 模式。但在 scikit-learn v 0.22 中将默认算法改为了'lbfgs'
,表示内存限定 Broyden–Fletcher–Goldfarb–Shanno (BFGS)算法(https://en.wikipedia.org/wiki/Limited-memory_BFGS) ,在这方面要更为灵活。
来看前面我们用于训练LogisticRegression
模型代码,读者可能会想,“神秘的参数 C 是什么?”我们会在下一小节中讨论这一参数,其中会介绍过拟合与正则化的概念。但在进行这些讨论之前,先完成对类成员概率的讨论。
训练样本属于某一类的概率可使用predict_proba
方法计算。例如,我们可以这样预测测试集前三个样本的概率:
这段代码返回如下数组:
第一行对应第一朵花的类成员概率,第二行对应第二朵花的类成员概率,以此类推。各行列的加和是 1。(可以通过执行lr.predict_proba(X_test_std[:3, :]).sum(axis=1)
来进行确认。)
第一行的最高值大约是 0.85,表示对第一个样本属于类 3(Iris-virginica
) 预测的概率是 85%。读者可能已经注意到,我们可以通过找到每行中的最大列来预测类标签,比如使用 NumPy 的argmax
函数:
返回的类标签如下所示(分别对应Iris-virginica
、Iris-setosa
和Iris-setosa
):
在上面的示例代码中,我们计算了条件概率并手动使用 NumPy 的argmax
函数将它们转化为类标签。实操中,使用 scikit-learn 获取类标签更便捷的方式是直接调用predict
方法:
最后,如果希望预测单个花样本的类标签需要注意:scikit-learn 接收的数据输入是二维数组,因此,我们需要将单行切片先转化为这种格式。将单行输入转化为二维数组的一种方式是使用 NumPy 的reshape
方法来添加一维,如下所示:
通过正则化处理过拟合
过拟合是机器学习中一种常见问题,这时模型对训练数据表现很好但对于未知数据(测试数据)的归纳不好。如果模型出现了过拟合,我们还会说模型的方差很高,这可是由参数过多产生的,导致模型对于给定的底层数据过于复杂。类似地,模型也可能会出现欠拟合(高偏差),这表示模型不够复杂未能很好地提取训练数据中的模式,因此对未知数据的表现不佳。
虽然我们还只遇到了线性分类模型,但过拟合和欠拟合的问题可通过比较线性决策边界与更复杂的非线性决策边界来更好的描绘,如图 3.8 所示:
图 3.8:欠拟合、良好拟合和过拟合模型示例
偏差-方差均衡
通常研究人员使用“偏差”和“方差”或“偏差-方差均衡”来描述模型的性能,也就是说读者在演讲、书或文章中可能会碰到说模型是“高方差”或“高偏差”的。那这是什么意思呢?一般我们会说“高方差”与过拟合成正比,而“高偏差”与欠拟合成正比。
在机器学习模型的上下文中,方差度量如果多次重新训练模型时对某一样本分类的模型预测的一致性(或可变性),比如对训练集的不同子集进行训练。我们可以说模型对训练数据中随机性是敏感的。相反,偏差度量在对不同训练数据集多次重建模型时预测距正确值总体有多远,偏差是一种与随机性无关的系统误差的度量。
如果对“偏差”和“方差”的技术细节和推荐感兴趣的话,作者写过相关的授课笔记:https://sebastianraschka.com/pdf/lecture-notes/stat451fs20/08-model-eval-1-intro__notes.pdf。
一种发现好的偏差-方差均衡的方式是通过正则化调优模型的复杂度。正则对于处理共线性(特征高度关联)、过滤数据噪声及最终防止过拟合是一种非常有用的方法。
正则化背后的概念是引入了额外的信息来惩罚极端参数(权重)值。正则化最常见的形式称 L2 正则化(有时也称为 L2 收缩或权重衰减),可以写成下面这样:
这里的称为正则化参数。分母里的 2 只是一个缩放因子,这样在计算损失梯度时约去。类似损失添加了样本大小 n 来缩放正则项。
正则化和特征归一化
正则化是标准化这样的特征缩放很重要的另一个原因。为让正则化正常动作,我们需要保障所有的特征在可比较的量级上。
逻辑回归的损失函数可通过添加简单正则项来正则化,正则项会在模型训练时收缩权重:
未正则化的偏导数定义为:
对损失添加正则项会将这一偏导数变成如下的形式:
通过正则化参数,,我们可以控制拟合训练数据的紧密程度,同时也保持权重很小。通过增大的值,我们增加了正则化强度。请注意第2章中学习过的偏置单元,基本是截距项或负阈值,通常不做正则化。
scikit-learn 中为LogisticRegression
类实现的参数C
,源自支持向量机的约定,这是下一节中的话题。C
项与正则化参数成反比。因此,减少其值可会翻转正则化参数C
,也即增加正则化的强度,可通过绘制有两个权重系数的 L2 正则化路径来进行可视化:
通过执行以上代码,我们使用用于翻转正则化参数C
的不同值拟合了 10 个逻辑回归模型。为便于绘图,我们只收集了类1
(这里是数据集中的第二个类:Iris-versicolor
)对所有分类器的权重系数,还记得我们使用 OvR 技术来进行多类分类吧。
可以通过输出图看出,如果减小参数C
也即增加正则化强度则权重系数收缩:
图 3.9:翻转 L2 正则化模型结果上的正则化强度参数 C 的影响
增加正则化强度会减小过拟合,那么读者可能会问为什么不默认对所有模型进行强正则化呢?原因是在调整正则化强度时也格外小心。例如,如果正则化强度过高而权重系统接近于零,模型会因欠拟合而表现很差,参见图 3.8。
有关逻辑回归的其它资源
因为对单独分类算法的深入讲解不在本书的范畴内,推荐希望更深入了解逻辑回归的读者阅读,逻辑回归:从入门到高级概念和应用,Dr. Scott Menard,塞奇出版公司,2009 年。
版权声明: 本文为 InfoQ 作者【Alan】的原创文章。
原文链接:【http://xie.infoq.cn/article/e0189c2edeb5d31e291b6d7ff】。文章转载请联系作者。
评论