写点什么

手把手带你打一场时间序列比赛—数据探索

作者:打工人!
  • 2023-10-23
    江苏
  • 本文字数:2109 字

    阅读完需:约 7 分钟

手把手带你打一场时间序列比赛—数据探索

数据探索性分析:

数据探索性分析,是通过了解数据集,了解变量间的相互关系以及变量与预测值之间的关系,对已有数据在尽量少的先验假设下通过作图、制表、方程拟合、计算特征量等手段探索数据的结构和规律的一种数据分析方法,从而帮助我们后期更好地进行特征工程和建立模型,是机器学习中十分重要的一步。

(1)数据准备

在进行数据分析前,先把准备工作做完,如数据读取,合并基本的数据

# 读取数据train_power_forecast_history = pd.read_csv('./data/train/power_forecast_history.csv')train_power = pd.read_csv('./data/train/power.csv')train_stub_info = pd.read_csv('./data/train/stub_info.csv')
test_power_forecast_history = pd.read_csv('./data/test/power_forecast_history.csv')test_stub_info = pd.read_csv('./data/test/stub_info.csv')
# 聚合数据train_df = train_power_forecast_history.groupby(['id_encode','ds']).head(1)del train_df['hour']
test_df = test_power_forecast_history.groupby(['id_encode','ds']).head(1)del test_df['hour']
tmp_df = train_power.groupby(['id_encode','ds'])['power'].sum()tmp_df.columns = ['id_encode','ds','power']
# 合并充电量数据train_df = train_df.merge(tmp_df, on=['id_encode','ds'], how='left')
### 合并数据train_df = train_df.merge(train_stub_info, on='id_encode', how='left')test_df = test_df.merge(test_stub_info, on='id_encode', how='left')
复制代码

(2)数据探索

时间序列预测问题更多的是观测历史数据的分布情况,从分布中分析是否存在周期性、趋势性、相关性和异常性。

cols = ['power']for ie in [0,1,2,3,4]:    tmp_df = train_df[train_df['id_encode']==ie].reset_index(drop=True)    tmp_df = tmp_df.reset_index(drop=True).reset_index()    for num, col in enumerate(cols):        plt.figure(figsize=(20,10))
plt.subplot(4,1,num+1) plt.plot(tmp_df['index'],tmp_df[col]) plt.title(col)plt.show()plt.figure(figsize=(20,5))
复制代码


上面展示了五个站点的历史一年的用电量数据,可以明显看到异常数据的存在,针对异常数据可以进行前后均值填充、删除对应样本等操作。并且不同站点的用电量存在很大的差异,有的峰值达到 3000,有的峰值仅有 300。

对于最下面的图:突然有一个峰值,可以思考是不是天气原因造成的,比如:由于下雨,或者气温骤降,人们出行时更容易叫网约车,这样就会导致某一天网约车订单量暴增,从而引起充电量暴增。还可以根据时间,考虑是否和疫情有关。

如果有经纬度相关信息,可以看看是否是大中小城市。等等

数据清洗:

数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。俗话说:garbage in, garbage out。分析完数据后,特征工程前,必不可少的步骤是对数据清洗。

数据清洗的作用是利用有关技术如数理统计、数据挖掘或预定义的清理规则将脏数据转化为满足数据质量要求的数据。主要包括缺失值处理、异常值处理、数据分桶、特征归一化/标准化等流程。

作为 baseline 部分暂时不进行细致的数据清洗工作,这部分仅进行数据预处理工作,主要为类型转换

### 数据预处理train_df['flag'] = train_df['flag'].map({'A':0,'B':1})test_df['flag'] = test_df['flag'].map({'A':0,'B':1})
复制代码

特征工程:

特征工程指的是把原始数据转变为模型训练数据的过程,目的是获取更好的训练数据特征。特征工程能使得模型的性能得到提升,有时甚至在简单的模型上也能取得不错的效果。

这里主要构建了基本的时间特征,即将“时间”变量转换为 datetime 格式,然后提取月、日、小时、周等相关特征,主要是为了刻画不同时间阶段可能存在的一致性信息。

def get_time_feature(df, col):        df_copy = df.copy()    prefix = col + "_"    df_copy['new_'+col] = df_copy[col].astype(str)        col = 'new_'+col    df_copy[col] = pd.to_datetime(df_copy[col], format='%Y%m%d')    df_copy[prefix + 'year'] = df_copy[col].dt.year    df_copy[prefix + 'month'] = df_copy[col].dt.month    df_copy[prefix + 'day'] = df_copy[col].dt.day    df_copy[prefix + 'weekofyear'] = df_copy[col].dt.weekofyear    df_copy[prefix + 'dayofweek'] = df_copy[col].dt.dayofweek    df_copy[prefix + 'is_wknd'] = df_copy[col].dt.dayofweek // 6    df_copy[prefix + 'quarter'] = df_copy[col].dt.quarter    df_copy[prefix + 'is_month_start'] = df_copy[col].dt.is_month_start.astype(int)    df_copy[prefix + 'is_month_end'] = df_copy[col].dt.is_month_end.astype(int)    del df_copy[col]        return df_copy       train_df = get_time_feature(train_df, 'ds')test_df = get_time_feature(test_df, 'ds')
cols = [f for f in test_df.columns if f not in ['ds','power','h3']]
复制代码

当然特征处理可以充分挖掘信息,比如该题中的 h3 数据,就可以解析成经纬度信息,可以把经纬度信息当作特征,还可以使用场外信息:比如对应时间的天气信息等

发布于: 刚刚阅读数: 5
用户头像

打工人!

关注

智慧交通扫地僧 2019-11-10 加入

2021年InfoQ年度最佳内容获得者。 InfoQ签约作者 会点深度强化学习算法; 会点融合跟踪; 喜欢用手机拍拍拍;

评论

发布
暂无评论
手把手带你打一场时间序列比赛—数据探索_机器学习_打工人!_InfoQ写作社区