写点什么

机器学习算法(六)基于天气数据集的 XGBoost 分类预测

作者:汀丶
  • 2023-03-26
    浙江
  • 本文字数:14599 字

    阅读完需:约 48 分钟

1.机器学习算法(六)基于天气数据集的 XGBoost 分类预测


1.1 XGBoost 的介绍与应用

XGBoost 是 2016 年由华盛顿大学陈天奇老师带领开发的一个可扩展机器学习系统。严格意义上讲 XGBoost 并不是一种模型,而是一个可供用户轻松解决分类、回归或排序问题的软件包。它内部实现了梯度提升树(GBDT)模型,并对模型中的算法进行了诸多优化,在取得高精度的同时又保持了极快的速度,在一段时间内成为了国内外数据挖掘、机器学习领域中的大规模杀伤性武器。


更重要的是,XGBoost 在系统优化和机器学习原理方面都进行了深入的考虑。毫不夸张的讲,XGBoost 提供的可扩展性,可移植性与准确性推动了机器学习计算限制的上限,该系统在单台机器上运行速度比当时流行解决方案快十倍以上,甚至在分布式系统中可以处理十亿级的数据。


XGBoost 在机器学习与数据挖掘领域有着极为广泛的应用。据统计在 2015 年 Kaggle 平台上 29 个获奖方案中,17 只队伍使用了 XGBoost;在 2015 年 KDD-Cup 中,前十名的队伍均使用了 XGBoost,且集成其他模型比不上调节 XGBoost 的参数所带来的提升。这些实实在在的例子都表明,XGBoost 在各种问题上都可以取得非常好的效果。


同时,XGBoost 还被成功应用在工业界与学术界的各种问题中。例如商店销售额预测、高能物理事件分类、web 文本分类;用户行为预测、运动检测、广告点击率预测、恶意软件分类、灾害风险预测、在线课程退学率预测。虽然领域相关的数据分析和特性工程在这些解决方案中也发挥了重要作用,但学习者与实践者对 XGBoost 的一致选择表明了这一软件包的影响力与重要性。

1.2 原理介绍

XGBoost 底层实现了 GBDT 算法,并对 GBDT 算法做了一系列优化:


  1. 对目标函数进行了泰勒展示的二阶展开,可以更加高效拟合误差。

  2. 提出了一种估计分裂点的算法加速 CART 树的构建过程,同时可以处理稀疏数据。

  3. 提出了一种树的并行策略加速迭代。

  4. 为模型的分布式算法进行了底层优化。


XGBoost 是基于 CART 树的集成模型,它的思想是串联多个决策树模型共同进行决策。


那么如何串联呢?XGBoost 采用迭代预测误差的方法串联。举个通俗的例子,我们现在需要预测一辆车价值 3000 元。我们构建决策树 1 训练后预测为 2600 元,我们发现有 400 元的误差,那么决策树 2 的训练目标为 400 元,但决策树 2 的预测结果为 350 元,还存在 50 元的误差就交给第三棵树……以此类推,每一颗树用来估计之前所有树的误差,最后所有树预测结果的求和就是最终预测结果!


XGBoost 的基模型是 CART 回归树,它有两个特点:(1)CART 树,是一颗二叉树。(2)回归树,最后拟合结果是连续值。


XGBoost 模型可以表示为以下形式,我们约定表示前颗树的和,表示第颗决策树,模型定义如下:


由于模型递归生成,第步的模型由第步的模型形成,可以写成:


每次需要加上的树是之前树求和的误差:


我们每一步只要拟合一颗输出为的 CART 树加到就可以了。

1.3 相关流程

  • 了解 XGBoost 的参数与相关知识

  • 掌握 XGBoost 的 Python 调用并将其运用到天气数据集预测


Part1 基于天气数据集的 XGBoost 分类实践


  • Step1: 库函数导入

  • Step2: 数据读取/载入

  • Step3: 数据信息简单查看

  • Step4: 可视化描述

  • Step5: 对离散变量进行编码

  • Step6: 利用 XGBoost 进行训练与预测

  • Step7: 利用 XGBoost 进行特征选择

  • Step8: 通过调整参数获得更好的效果

3.基于天气数据集的 XGBoost 分类实战

3.1 EDA 探索性分析

在实践的最开始,我们首先需要导入一些基础的函数库包括:numpy (Python 进行科学计算的基础软件包),pandas(pandas 是一种快速,强大,灵活且易于使用的开源数据分析和处理工具),matplotlib 和 seaborn 绘图。


#导入需要用到的数据集!wget https://tianchi-media.oss-cn-beijing.aliyuncs.com/DSW/7XGBoost/train.csv
复制代码


--2023-03-22 17:33:53--  https://tianchi-media.oss-cn-beijing.aliyuncs.com/DSW/7XGBoost/train.csv正在解析主机 tianchi-media.oss-cn-beijing.aliyuncs.com (tianchi-media.oss-cn-beijing.aliyuncs.com)... 49.7.22.39正在连接 tianchi-media.oss-cn-beijing.aliyuncs.com (tianchi-media.oss-cn-beijing.aliyuncs.com)|49.7.22.39|:443... 已连接。已发出 HTTP 请求,正在等待回应... 200 OK长度: 11476379 (11M) [text/csv]正在保存至: “train.csv.2”
train.csv.2 100%[===================>] 10.94M 8.82MB/s in 1.2s
2023-03-22 17:33:55 (8.82 MB/s) - 已保存 “train.csv.2” [11476379/11476379])
复制代码


Step1:函数库导入


##  基础函数库import numpy as np import pandas as pd
## 绘图函数库import matplotlib.pyplot as pltimport seaborn as sns
复制代码


本次我们选择天气数据集进行方法的尝试训练,现在有一些由气象站提供的每日降雨数据,我们需要根据历史降雨数据来预测明天会下雨的概率。样例涉及到的测试集数据 test.csv 与 train.csv 的格式完全相同,但其 RainTomorrow 未给出,为预测变量。


数据的各个特征描述如下:



Step2:数据读取/载入


## 我们利用Pandas自带的read_csv函数读取并转化为DataFrame格式
data = pd.read_csv('train.csv')
复制代码


Step3:数据信息简单查看


## 利用.info()查看数据的整体信息data.info()
复制代码


<class 'pandas.core.frame.DataFrame'>RangeIndex: 106644 entries, 0 to 106643Data columns (total 23 columns): #   Column         Non-Null Count   Dtype  ---  ------         --------------   -----   0   Date           106644 non-null  object  1   Location       106644 non-null  object  2   MinTemp        106183 non-null  float64 3   MaxTemp        106413 non-null  float64 4   Rainfall       105610 non-null  float64 5   Evaporation    60974 non-null   float64 6   Sunshine       55718 non-null   float64 7   WindGustDir    99660 non-null   object  8   WindGustSpeed  99702 non-null   float64 9   WindDir9am     99166 non-null   object  10  WindDir3pm     103788 non-null  object  11  WindSpeed9am   105643 non-null  float64 12  WindSpeed3pm   104653 non-null  float64 13  Humidity9am    105327 non-null  float64 14  Humidity3pm    103932 non-null  float64 15  Pressure9am    96107 non-null   float64 16  Pressure3pm    96123 non-null   float64 17  Cloud9am       66303 non-null   float64 18  Cloud3pm       63691 non-null   float64 19  Temp9am        105983 non-null  float64 20  Temp3pm        104599 non-null  float64 21  RainToday      105610 non-null  object  22  RainTomorrow   106644 non-null  object dtypes: float64(16), object(7)memory usage: 18.7+ MB
复制代码


## 进行简单的数据查看,我们可以利用 .head() 头部.tail()尾部data.head()
复制代码


<div><style scoped>.dataframe tbody tr th:only-of-type {vertical-align: middle;}


.dataframe tbody tr th {    vertical-align: top;}
.dataframe thead th { text-align: right;}
复制代码


</style><table border="1" class="dataframe"><thead><tr style="text-align: right;"><th></th><th>Date</th><th>Location</th><th>MinTemp</th><th>MaxTemp</th><th>Rainfall</th><th>Evaporation</th><th>Sunshine</th><th>WindGustDir</th><th>WindGustSpeed</th><th>WindDir9am</th><th>...</th><th>Humidity9am</th><th>Humidity3pm</th><th>Pressure9am</th><th>Pressure3pm</th><th>Cloud9am</th><th>Cloud3pm</th><th>Temp9am</th><th>Temp3pm</th><th>RainToday</th><th>RainTomorrow</th></tr></thead><tbody><tr><th>0</th><td>2012/1/19</td><td>MountGinini</td><td>12.1</td><td>23.1</td><td>0.0</td><td>NaN</td><td>NaN</td><td>W</td><td>30.0</td><td>N</td><td>...</td><td>60.0</td><td>54.0</td><td>NaN</td><td>NaN</td><td>NaN</td><td>NaN</td><td>17.0</td><td>22.0</td><td>No</td><td>No</td></tr><tr><th>1</th><td>2015/4/13</td><td>Nhil</td><td>10.2</td><td>24.7</td><td>0.0</td><td>NaN</td><td>NaN</td><td>E</td><td>39.0</td><td>E</td><td>...</td><td>63.0</td><td>33.0</td><td>1021.9</td><td>1017.9</td><td>NaN</td><td>NaN</td><td>12.5</td><td>23.7</td><td>No</td><td>Yes</td></tr><tr><th>2</th><td>2010/8/5</td><td>Nuriootpa</td><td>-0.4</td><td>11.0</td><td>3.6</td><td>0.4</td><td>1.6</td><td>W</td><td>28.0</td><td>N</td><td>...</td><td>97.0</td><td>78.0</td><td>1025.9</td><td>1025.3</td><td>7.0</td><td>8.0</td><td>3.9</td><td>9.0</td><td>Yes</td><td>No</td></tr><tr><th>3</th><td>2013/3/18</td><td>Adelaide</td><td>13.2</td><td>22.6</td><td>0.0</td><td>15.4</td><td>11.0</td><td>SE</td><td>44.0</td><td>E</td><td>...</td><td>47.0</td><td>34.0</td><td>1025.0</td><td>1022.2</td><td>NaN</td><td>NaN</td><td>15.2</td><td>21.7</td><td>No</td><td>No</td></tr><tr><th>4</th><td>2011/2/16</td><td>Sale</td><td>14.1</td><td>28.6</td><td>0.0</td><td>6.6</td><td>6.7</td><td>E</td><td>28.0</td><td>NE</td><td>...</td><td>92.0</td><td>42.0</td><td>1018.0</td><td>1014.1</td><td>4.0</td><td>7.0</td><td>19.1</td><td>28.2</td><td>No</td><td>No</td></tr></tbody></table><p>5 rows × 23 columns</p></div>


这里我们发现数据集中存在 NaN,一般的我们认为 NaN 在数据集中代表了缺失值,可能是数据采集或处理时产生的一种错误。这里我们采用-1 将缺失值进行填补,还有其他例如“中位数填补、平均数填补”的缺失值处理方法有兴趣的同学也可以尝试。


data = data.fillna(-1)
复制代码


data.tail()
复制代码


<div><style scoped>.dataframe tbody tr th:only-of-type {vertical-align: middle;}


.dataframe tbody tr th {    vertical-align: top;}
.dataframe thead th { text-align: right;}
复制代码


</style><table border="1" class="dataframe"><thead><tr style="text-align: right;"><th></th><th>Date</th><th>Location</th><th>MinTemp</th><th>MaxTemp</th><th>Rainfall</th><th>Evaporation</th><th>Sunshine</th><th>WindGustDir</th><th>WindGustSpeed</th><th>WindDir9am</th><th>...</th><th>Humidity9am</th><th>Humidity3pm</th><th>Pressure9am</th><th>Pressure3pm</th><th>Cloud9am</th><th>Cloud3pm</th><th>Temp9am</th><th>Temp3pm</th><th>RainToday</th><th>RainTomorrow</th></tr></thead><tbody><tr><th>106639</th><td>2011/5/23</td><td>Launceston</td><td>10.1</td><td>16.1</td><td>15.8</td><td>-1.0</td><td>-1.0</td><td>SE</td><td>31.0</td><td>NNW</td><td>...</td><td>99.0</td><td>86.0</td><td>999.2</td><td>995.2</td><td>-1.0</td><td>-1.0</td><td>13.0</td><td>15.6</td><td>Yes</td><td>Yes</td></tr><tr><th>106640</th><td>2014/12/9</td><td>GoldCoast</td><td>19.3</td><td>31.7</td><td>36.0</td><td>-1.0</td><td>-1.0</td><td>SE</td><td>80.0</td><td>NNW</td><td>...</td><td>75.0</td><td>76.0</td><td>1013.8</td><td>1010.0</td><td>-1.0</td><td>-1.0</td><td>26.0</td><td>25.8</td><td>Yes</td><td>Yes</td></tr><tr><th>106641</th><td>2014/10/7</td><td>Wollongong</td><td>17.5</td><td>22.2</td><td>1.2</td><td>-1.0</td><td>-1.0</td><td>WNW</td><td>65.0</td><td>WNW</td><td>...</td><td>61.0</td><td>56.0</td><td>1008.2</td><td>1008.2</td><td>-1.0</td><td>-1.0</td><td>17.8</td><td>21.4</td><td>Yes</td><td>No</td></tr><tr><th>106642</th><td>2012/1/16</td><td>Newcastle</td><td>17.6</td><td>27.0</td><td>3.0</td><td>-1.0</td><td>-1.0</td><td>-1</td><td>-1.0</td><td>NE</td><td>...</td><td>68.0</td><td>88.0</td><td>-1.0</td><td>-1.0</td><td>6.0</td><td>5.0</td><td>22.6</td><td>26.4</td><td>Yes</td><td>No</td></tr><tr><th>106643</th><td>2014/10/21</td><td>AliceSprings</td><td>16.3</td><td>37.9</td><td>0.0</td><td>14.2</td><td>12.2</td><td>ESE</td><td>41.0</td><td>NNE</td><td>...</td><td>8.0</td><td>6.0</td><td>1017.9</td><td>1014.0</td><td>0.0</td><td>1.0</td><td>32.2</td><td>35.7</td><td>No</td><td>No</td></tr></tbody></table><p>5 rows × 23 columns</p></div>


## 利用value_counts函数查看训练集标签的数量pd.Series(data['RainTomorrow']).value_counts()
复制代码


No     82786Yes    23858Name: RainTomorrow, dtype: int64
复制代码


我们发现数据集中的负样本数量远大于正样本数量,这种常见的问题叫做“数据不平衡”问题,在某些情况下需要进行一些特殊处理。


## 对于特征进行一些统计描述data.describe()
复制代码


<div><style scoped>.dataframe tbody tr th:only-of-type {vertical-align: middle;}


.dataframe tbody tr th {    vertical-align: top;}
.dataframe thead th { text-align: right;}
复制代码


</style><table border="1" class="dataframe"><thead><tr style="text-align: right;"><th></th><th>MinTemp</th><th>MaxTemp</th><th>Rainfall</th><th>Evaporation</th><th>Sunshine</th><th>WindGustSpeed</th><th>WindSpeed9am</th><th>WindSpeed3pm</th><th>Humidity9am</th><th>Humidity3pm</th><th>Pressure9am</th><th>Pressure3pm</th><th>Cloud9am</th><th>Cloud3pm</th><th>Temp9am</th><th>Temp3pm</th></tr></thead><tbody><tr><th>count</th><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td><td>106644.000000</td></tr><tr><th>mean</th><td>12.129147</td><td>23.183398</td><td>2.313912</td><td>2.704798</td><td>3.509008</td><td>37.305137</td><td>13.852200</td><td>18.265378</td><td>67.940353</td><td>50.104657</td><td>917.003689</td><td>914.995385</td><td>2.381231</td><td>2.285670</td><td>16.877842</td><td>21.257600</td></tr><tr><th>std</th><td>6.444358</td><td>7.208596</td><td>8.379145</td><td>4.519172</td><td>5.105696</td><td>16.585310</td><td>8.949659</td><td>9.118835</td><td>20.481579</td><td>22.136917</td><td>304.042528</td><td>303.120731</td><td>3.483751</td><td>3.419658</td><td>6.629811</td><td>7.549532</td></tr><tr><th>min</th><td>-8.500000</td><td>-4.800000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-1.000000</td><td>-7.200000</td><td>-5.400000</td></tr><tr><th>25%</th><td>7.500000</td><td>17.900000</td><td>0.000000</td><td>-1.000000</td><td>-1.000000</td><td>30.000000</td><td>7.000000</td><td>11.000000</td><td>56.000000</td><td>35.000000</td><td>1011.000000</td><td>1008.500000</td><td>-1.000000</td><td>-1.000000</td><td>12.200000</td><td>16.300000</td></tr><tr><th>50%</th><td>12.000000</td><td>22.600000</td><td>0.000000</td><td>1.600000</td><td>0.200000</td><td>37.000000</td><td>13.000000</td><td>17.000000</td><td>70.000000</td><td>51.000000</td><td>1016.700000</td><td>1014.200000</td><td>1.000000</td><td>1.000000</td><td>16.700000</td><td>20.900000</td></tr><tr><th>75%</th><td>16.800000</td><td>28.300000</td><td>0.600000</td><td>5.400000</td><td>8.700000</td><td>46.000000</td><td>19.000000</td><td>24.000000</td><td>83.000000</td><td>65.000000</td><td>1021.800000</td><td>1019.400000</td><td>6.000000</td><td>6.000000</td><td>21.500000</td><td>26.300000</td></tr><tr><th>max</th><td>31.900000</td><td>48.100000</td><td>268.600000</td><td>145.000000</td><td>14.500000</td><td>135.000000</td><td>130.000000</td><td>87.000000</td><td>100.000000</td><td>100.000000</td><td>1041.000000</td><td>1039.600000</td><td>9.000000</td><td>9.000000</td><td>39.400000</td><td>46.200000</td></tr></tbody></table></div>


Step4:可视化描述


为了方便,我们先纪录数字特征与非数字特征:


numerical_features = [x for x in data.columns if data[x].dtype == np.float]
复制代码


category_features = [x for x in data.columns if data[x].dtype != np.float and x != 'RainTomorrow']
复制代码


## 选取三个特征与标签组合的散点可视化sns.pairplot(data=data[['Rainfall','Evaporation','Sunshine'] + ['RainTomorrow']], diag_kind='hist', hue= 'RainTomorrow')plt.show()
复制代码



从上图可以发现,在 2D 情况下不同的特征组合对于第二天下雨与不下雨的散点分布,以及大概的区分能力。相对的 Sunshine 与其他特征的组合更具有区分能力


for col in data[numerical_features].columns:    if col != 'RainTomorrow':        sns.boxplot(x='RainTomorrow', y=col, saturation=0.5, palette='pastel', data=data)        plt.title(col)        plt.show()
复制代码






利用箱型图我们也可以得到不同类别在不同特征上的分布差异情况。我们可以发现 Sunshine,Humidity3pm,Cloud9am,Cloud3pm 的区分能力较强


tlog = {}for i in category_features:    tlog[i] = data[data['RainTomorrow'] == 'Yes'][i].value_counts()flog = {}for i in category_features:    flog[i] = data[data['RainTomorrow'] == 'No'][i].value_counts()
复制代码


plt.figure(figsize=(10,10))plt.subplot(1,2,1)plt.title('RainTomorrow')sns.barplot(x = pd.DataFrame(tlog['Location']).sort_index()['Location'], y = pd.DataFrame(tlog['Location']).sort_index().index, color = "red")plt.subplot(1,2,2)plt.title('Not RainTomorrow')sns.barplot(x = pd.DataFrame(flog['Location']).sort_index()['Location'], y = pd.DataFrame(flog['Location']).sort_index().index, color = "blue")plt.show()
复制代码



从上图可以发现不同地区降雨情况差别很大,有些地方明显更容易降雨


plt.figure(figsize=(10,2))plt.subplot(1,2,1)plt.title('RainTomorrow')sns.barplot(x = pd.DataFrame(tlog['RainToday'][:2]).sort_index()['RainToday'], y = pd.DataFrame(tlog['RainToday'][:2]).sort_index().index, color = "red")plt.subplot(1,2,2)plt.title('Not RainTomorrow')sns.barplot(x = pd.DataFrame(flog['RainToday'][:2]).sort_index()['RainToday'], y = pd.DataFrame(flog['RainToday'][:2]).sort_index().index, color = "blue")plt.show()
复制代码



上图我们可以发现,今天下雨明天不一定下雨,但今天不下雨,第二天大概率也不下雨。

3.2 特征向量编码

Step5:对离散变量进行编码


由于 XGBoost 无法处理字符串类型的数据,我们需要一些方法讲字符串数据转化为数据。一种最简单的方法是把所有的相同类别的特征编码成同一个值,例如女=0,男=1,狗狗=2,所以最后编码的特征值是在之间的整数。除此之外,还有独热编码、求和编码、留一法编码等等方法可以获得更好的效果。


## 把所有的相同类别的特征编码为同一个值def get_mapfunction(x):    mapp = dict(zip(x.unique().tolist(),         range(len(x.unique().tolist()))))    def mapfunction(y):        if y in mapp:            return mapp[y]        else:            return -1    return mapfunctionfor i in category_features:    data[i] = data[i].apply(get_mapfunction(data[i]))
复制代码


## 编码后的字符串特征变成了数字
data['Location'].unique()
复制代码


array([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16,       17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33,       34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48])
复制代码

3.3 模型训练预测

Step6:利用 XGBoost 进行训练与预测


## 为了正确评估模型性能,将数据划分为训练集和测试集,并在训练集上训练模型,在测试集上验证模型性能。from sklearn.model_selection import train_test_split
## 选择其类别为0和1的样本 (不包括类别为2的样本)data_target_part = data['RainTomorrow']data_features_part = data[[x for x in data.columns if x != 'RainTomorrow']]
## 测试集大小为20%, 80%/20%分x_train, x_test, y_train, y_test = train_test_split(data_features_part, data_target_part, test_size = 0.2, random_state = 2020)
复制代码


#查看标签数据print(y_train[0:2],y_test[0:2])
# 替换Yes为1,No为0y_train = y_train.replace({'Yes': 1, 'No': 0})y_test = y_test.replace({'Yes': 1, 'No': 0})
# 打印修改后的结果print(y_train[0:2],y_test[0:2])
复制代码


98173    No33154    NoName: RainTomorrow, dtype: object 10273    Yes90769     NoName: RainTomorrow, dtype: object98173    033154    0Name: RainTomorrow, dtype: int64 10273    190769    0Name: RainTomorrow, dtype: int64
复制代码


The label for xgboost must consist of integer labels of the form 0, 1, 2, ..., [num_class - 1]. This means that the labels must be sequential integers starting from 0 up to the total number of classes minus 1. For example, if there are 3 classes, the labels should be 0, 1, and 2. If the labels are not in this format, xgboost may not be able to train the model properly.
复制代码


## 导入XGBoost模型from xgboost.sklearn import XGBClassifier## 定义 XGBoost模型 clf = XGBClassifier(use_label_encoder=False)# 在训练集上训练XGBoost模型clf.fit(x_train, y_train)
#https://cloud.tencent.com/developer/ask/sof/913362/answer/1303557
复制代码


[17:34:10] WARNING: ../src/learner.cc:1061: Starting in XGBoost 1.3.0, the default evaluation metric used with the objective 'binary:logistic' was changed from 'error' to 'logloss'. Explicitly set eval_metric if you'd like to restore the old behavior.




XGBClassifier(base_score=0.5, booster='gbtree', colsample_bylevel=1, colsample_bynode=1, colsample_bytree=1, gamma=0, gpu_id=-1, importance_type='gain', interaction_constraints='', learning_rate=0.300000012, max_delta_step=0, max_depth=6, min_child_weight=1, missing=nan, monotone_constraints='()', n_estimators=100, n_jobs=24, num_parallel_tree=1, random_state=0, reg_alpha=0, reg_lambda=1, scale_pos_weight=1, subsample=1, tree_method='exact', use_label_encoder=False, validate_parameters=1, verbosity=None)
复制代码


## 在训练集和测试集上分布利用训练好的模型进行预测train_predict = clf.predict(x_train)test_predict = clf.predict(x_test)from sklearn import metrics
## 利用accuracy(准确度)【预测正确的样本数目占总预测样本数目的比例】评估模型效果print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))
## 查看混淆矩阵 (预测值和真实值的各类情况统计矩阵)confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test)print('The confusion matrix result:\n',confusion_matrix_result)
# 利用热力图对于结果进行可视化plt.figure(figsize=(8, 6))sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues')plt.xlabel('Predicted labels')plt.ylabel('True labels')plt.show()
复制代码


The accuracy of the Logistic Regression is: 0.8982476703979371The accuracy of the Logistic Regression is: 0.8575179333302076The confusion matrix result: [[15656  2142] [  897  2634]]
复制代码



我们可以发现共有 15759 + 2306 个样本预测正确,2470 + 794 个样本预测错误。

3.3.1 特征选择

Step7: 利用 XGBoost 进行特征选择


XGBoost 的特征选择属于特征选择中的嵌入式方法,在 XGboost 中可以用属性 feature_importances_去查看特征的重要度。


? sns.barplot
复制代码


sns.barplot(y=data_features_part.columns, x=clf.feature_importances_)
复制代码



从图中我们可以发现下午 3 点的湿度与今天是否下雨是决定第二天是否下雨最重要的因素


初次之外,我们还可以使用 XGBoost 中的下列重要属性来评估特征的重要性。


  • weight:是以特征用到的次数来评价

  • gain:当利用特征做划分的时候的评价基尼指数

  • cover:利用一个覆盖样本的指标二阶导数(具体原理不清楚有待探究)平均值来划分。

  • total_gain:总基尼指数

  • total_cover:总覆盖


from sklearn.metrics import accuracy_scorefrom xgboost import plot_importance
def estimate(model,data):
#sns.barplot(data.columns,model.feature_importances_) ax1=plot_importance(model,importance_type="gain") ax1.set_title('gain') ax2=plot_importance(model, importance_type="weight") ax2.set_title('weight') ax3 = plot_importance(model, importance_type="cover") ax3.set_title('cover') plt.show()def classes(data,label,test): model=XGBClassifier() model.fit(data,label) ans=model.predict(test) estimate(model, data) return ans ans=classes(x_train,y_train,x_test)pre=accuracy_score(y_test, ans)print('acc=',accuracy_score(y_test,ans))
复制代码


/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/xgboost/sklearn.py:888: UserWarning: The use of label encoder in XGBClassifier is deprecated and will be removed in a future release. To remove this warning, do the following: 1) Pass option use_label_encoder=False when constructing XGBClassifier object; and 2) Encode your labels (y) as integers starting with 0, i.e. 0, 1, 2, ..., [num_class - 1].  warnings.warn(label_encoder_deprecation_msg, UserWarning)

[17:34:28] WARNING: ../src/learner.cc:1061: Starting in XGBoost 1.3.0, the default evaluation metric used with the objective 'binary:logistic' was changed from 'error' to 'logloss'. Explicitly set eval_metric if you'd like to restore the old behavior.
复制代码





acc= 0.8575179333302076
复制代码


这些图同样可以帮助我们更好的了解其他重要特征。


Step8: 通过调整参数获得更好的效果


XGBoost 中包括但不限于下列对模型影响较大的参数:


1. learning_rate: 有时也叫作eta,系统默认值为0.3。每一步迭代的步长,很重要。太大了运行准确率不高,太小了运行速度慢。2. subsample:系统默认为1。这个参数控制对于每棵树,随机采样的比例。减小这个参数的值,算法会更加保守,避免过拟合, 取值范围零到一。3. colsample_bytree:系统默认值为1。我们一般设置成0.8左右。用来控制每棵随机采样的列数的占比(每一列是一个特征)。4. max_depth: 系统默认值为6,我们常用3-10之间的数字。这个值为树的最大深度。这个值是用来控制过拟合的。max_depth越大,模型学习的更加具体。
复制代码

3.3.2 核心参数调优

1.eta[默认 0.3]


通过为每一颗树增加权重,提高模型的鲁棒性。


典型值为 0.01-0.2。


2.min_child_weight[默认 1]


决定最小叶子节点样本权重和。


这个参数可以避免过拟合。当它的值较大时,可以避免模型学习到局部的特殊样本。


但是如果这个值过高,则会导致模型拟合不充分。


3.max_depth[默认 6]


这个值也是用来避免过拟合的。max_depth 越大,模型会学到更具体更局部的样本。


典型值:3-10


4.max_leaf_nodes


树上最大的节点或叶子的数量。


可以替代 max_depth 的作用。


这个参数的定义会导致忽略 max_depth 参数。


5.gamma[默认 0]


在节点分裂时,只有分裂后损失函数的值下降了,才会分裂这个节点。Gamma 指定了节点分裂所需的最小损失函数下降值。这个参数的值越大,算法越保守。这个参数的值和损失函数息息相关。


6.max_delta_step[默认 0]


这参数限制每棵树权重改变的最大步长。如果这个参数的值为 0,那就意味着没有约束。如果它被赋予了某个正值,那么它会让这个算法更加保守。


但是当各类别的样本十分不平衡时,它对分类问题是很有帮助的。


7.subsample[默认 1]


这个参数控制对于每棵树,随机采样的比例。


减小这个参数的值,算法会更加保守,避免过拟合。但是,如果这个值设置得过小,它可能会导致欠拟合。


典型值:0.5-1


8.colsample_bytree[默认 1]


用来控制每棵随机采样的列数的占比(每一列是一个特征)。


典型值:0.5-1


9.colsample_bylevel[默认 1]


用来控制树的每一级的每一次分裂,对列数的采样的占比。


subsample 参数和 colsample_bytree 参数可以起到相同的作用,一般用不到。


10.lambda[默认 1]


权重的 L2 正则化项。(和 Ridge regression 类似)。


这个参数是用来控制 XGBoost 的正则化部分的。虽然大部分数据科学家很少用到这个参数,但是这个参数在减少过拟合上还是可以挖掘出更多用处的。


11.alpha[默认 1]


权重的 L1 正则化项。(和 Lasso regression 类似)。


可以应用在很高维度的情况下,使得算法的速度更快。


12.scale_pos_weight[默认 1]


在各类别样本十分不平衡时,把这个参数设定为一个正值,可以使算法更快收敛。

3.3.3 网格调参法

调节模型参数的方法有贪心算法、网格调参、贝叶斯调参等。这里我们采用网格调参,它的基本思想是穷举搜索:在所有候选的参数选择中,通过循环遍历,尝试每一种可能性,表现最好的参数就是最终的结果


## 从sklearn库中导入网格调参函数from sklearn.model_selection import GridSearchCV
## 定义参数取值范围learning_rate = [0.1, 0.3,]subsample = [0.8]colsample_bytree = [0.6, 0.8]max_depth = [3,5]
parameters = { 'learning_rate': learning_rate, 'subsample': subsample, 'colsample_bytree':colsample_bytree, 'max_depth': max_depth}model = XGBClassifier(n_estimators = 20)
## 进行网格搜索clf = GridSearchCV(model, parameters, cv=3, scoring='accuracy',verbose=1,n_jobs=-1)
clf = clf.fit(x_train, y_train)
复制代码


## 网格搜索后的最好参数为
clf.best_params_
复制代码


## 在训练集和测试集上分布利用最好的模型参数进行预测
## 定义带参数的 XGBoost模型 clf = XGBClassifier(colsample_bytree = 0.6, learning_rate = 0.3, max_depth= 8, subsample = 0.9)# 在训练集上训练XGBoost模型clf.fit(x_train, y_train)
train_predict = clf.predict(x_train)test_predict = clf.predict(x_test)
## 利用accuracy(准确度)【预测正确的样本数目占总预测样本数目的比例】评估模型效果print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))
## 查看混淆矩阵 (预测值和真实值的各类情况统计矩阵)confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test)print('The confusion matrix result:\n',confusion_matrix_result)
# 利用热力图对于结果进行可视化plt.figure(figsize=(8, 6))sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues')plt.xlabel('Predicted labels')plt.ylabel('True labels')plt.show()
复制代码


/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/xgboost/sklearn.py:888: UserWarning: The use of label encoder in XGBClassifier is deprecated and will be removed in a future release. To remove this warning, do the following: 1) Pass option use_label_encoder=False when constructing XGBClassifier object; and 2) Encode your labels (y) as integers starting with 0, i.e. 0, 1, 2, ..., [num_class - 1].  warnings.warn(label_encoder_deprecation_msg, UserWarning)

[17:55:25] WARNING: ../src/learner.cc:1061: Starting in XGBoost 1.3.0, the default evaluation metric used with the objective 'binary:logistic' was changed from 'error' to 'logloss'. Explicitly set eval_metric if you'd like to restore the old behavior.The accuracy of the Logistic Regression is: 0.9382992439781984The accuracy of the Logistic Regression is: 0.856674011908669The confusion matrix result: [[15611 2115] [ 942 2661]]
复制代码



原本有 2470 + 790 个错误,现在有 2112 + 939 个错误,带来了明显的正确率提升。


更多调参技巧请参考:https://blog.csdn.net/weixin_62684026/article/details/126859262

4. 总结

XGBoost 的主要优点:


  1. 简单易用。相对其他机器学习库,用户可以轻松使用 XGBoost 并获得相当不错的效果。

  2. 高效可扩展。在处理大规模数据集时速度快效果好,对内存等硬件资源要求不高。

  3. 鲁棒性强。相对于深度学习模型不需要精细调参便能取得接近的效果。

  4. XGBoost 内部实现提升树模型,可以自动处理缺失值。


XGBoost 的主要缺点:


  1. 相对于深度学习模型无法对时空位置建模,不能很好地捕获图像、语音、文本等高维数据。

  2. 在拥有海量训练数据,并能找到合适的深度学习模型时,深度学习的精度可以遥遥领先 XGBoost。


本项目链接:https://www.heywhale.com/home/column/64141d6b1c8c8b518ba97dcc


参考链接:https://tianchi.aliyun.com/course/278/3423




本人最近打算整合 ML、DRL、NLP 等相关领域的体系化项目课程,方便入门同学快速掌握相关知识。声明:部分项目为网络经典项目方便大家快速学习,后续会不断增添实战环节(比赛、论文、现实应用等)。


  • 对于机器学习这块规划为:基础入门机器学习算法--->简单项目实战--->数据建模比赛----->相关现实中应用场景问题解决。一条路线帮助大家学习,快速实战。

  • 对于深度强化学习这块规划为:基础单智能算法教学(gym 环境为主)---->主流多智能算法教学(gym 环境为主)---->单智能多智能题实战(论文复现偏业务如:无人机优化调度、电力资源调度等项目应用)

  • 自然语言处理相关规划:除了单点算法技术外,主要围绕知识图谱构建进行:信息抽取相关技术(含智能标注)--->知识融合---->知识推理---->图谱应用


上述对于你掌握后的期许:


  1. 对于 ML,希望你后续可以乱杀数学建模相关比赛(参加就获奖保底,top 还是难的需要钻研)

  2. 可以实际解决现实中一些优化调度问题,而非停留在 gym 环境下的一些游戏 demo 玩玩。(更深层次可能需要自己钻研了,难度还是很大的)

  3. 掌握可知识图谱全流程构建其中各个重要环节算法,包含图数据库相关知识。


这三块领域耦合情况比较大,后续会通过比如:搜索推荐系统整个项目进行耦合,各项算法都会耦合在其中。举例:知识图谱就会用到(图算法、NLP、ML 相关算法),搜索推荐系统(除了该领域召回粗排精排重排混排等算法外,还有强化学习、知识图谱等耦合在其中)。饼画的有点大,后面慢慢实现。

发布于: 刚刚阅读数: 3
用户头像

汀丶

关注

本博客将不定期更新关于NLP等领域相关知识 2022-01-06 加入

本博客将不定期更新关于机器学习、强化学习、数据挖掘以及NLP等领域相关知识,以及分享自己学习到的知识技能,感谢大家关注!

评论

发布
暂无评论
机器学习算法(六)基于天气数据集的XGBoost分类预测_数据挖掘_汀丶_InfoQ写作社区