零 写在前面
本系列学习笔记参考书籍: 《数据分析实战》托马兹·卓巴斯,会将自己学习本书的笔记分享给大家,同样开成一个系列『数据分析从零开始实战』。
点击查看第一篇文章:# 数据分析从零开始实战,Pandas读写CSV数据
点击查看第一篇文章:# 数据分析从零开始实战,Pandas读写TSV/Json数据
点击查看第三篇文章:# 数据分析从零开始实战,Pandas读写Excel/XML数据
前面三篇文章讲了数据分析虚拟环境创建和 pandas 读写 CSV、TSV、JSON、Excel、XML 格式的数据,今天我们继续探索 pandas。
一 基本知识概要
1.利用 Pandas 检索 HTML 页面(read_html 函数)
2.实战训练使用 read_html 函数直接获取页面数据
3.基本数据处理:表头处理、dropna 和 fillna 详解
4.基本数据可视化分析案例
二 开始动手动脑
1.Pandas 的 read_html 函数
这里我们要介绍的是 Pandas 里解析 HTML 页面的函数:read_html
。
查看源码后我们可以看出,该函数的参数比较多,下面我挑重点给大家解释几个。
(1)io
(最关键参数)
源码注释
A URL, a file-like object, or a raw string containing HTML. Note that
lxml only accepts the http, ftp and file url protocols. If you have a
URL that starts with ``'https'`` you might try removing the ``'s'``.
复制代码
我的理解
数据地址(网页地址、包含HTML的文件地址或者字符串)。
注意lxml只接受HTTP、FTP和文件URL协议。
如果你有以“https”开头的URL,你可以尝试删除“s”再传入参数。
复制代码
(2)match
源码注释
str or compiled regular expression, optional
The set of tables containing text matching this regex or string will be
returned. Unless the HTML is extremely simple you will probably need to
pass a non-empty string here. Defaults to '.+' (match any non-empty
string). The default value will return all tables contained on a page.
This value is converted to a regular expression so that there is
consistent behavior between Beautiful Soup and lxml.
复制代码
我的理解
字符串或编译的正则表达式,可选
包含与此正则表达式或字符串匹配的文本的一组表将返回。
除非HTML非常简单,否则您可能需要在此处传递一个非空字符串。
默认为“.+”(匹配任何非空字符串)。默认值将返回页面上包含的所有<table>标签包含的表格。
该值将转换为正则表达式,以便Beautiful Soup和LXML之间一致。
复制代码
(3)flavor
源码注释
flavor : str or None, container of strings
The parsing engine to use. 'bs4' and 'html5lib' are synonymous with
each other, they are both there for backwards compatibility. The
default of ``None`` tries to use ``lxml`` to parse and if that fails it
falls back on ``bs4`` + ``html5lib``.
复制代码
我的理解
要使用的解析引擎。'bs4'和'html5lib'是彼此的同义词,
它们都是为了向后兼容。默认为空,尝试用于lxml解析的默认值,
如果失败,则使用bs4和 html5lib。
复制代码
2.数据基本处理
(1)处理列名
# 处理列名
import re
# 匹配字符串中任意空白字符的正则表达式
space = re.compile(r"\s+")
def fix_string_spaces(columnsToFix):
'''
将列名中的空白字符转变成下划线
'''
tempColumnNames = [] # 保存处理后的列名
# 循环处理所有列
for item in columnsToFix:
# 匹配到
if space.search(item):
# 处理并加入列表
tempColumnNames.append('_'.join((space.split(item))))
'''
这句有点长涉及到列表的一些操作,我解释一下
str1.split(str2) str1 表示被分隔的字符串;str2表示分隔字符串
str3.join(list1) str2 表示按什么字符串进行连接;list1表示待连接的列表
list2.append(str4) 表示在列表list2的末尾添加str4这个元素
'''
else :
# 否则直接加入列表
tempColumnNames.append(item)
return tempColumnNames
复制代码
上面这段代码来自书本,其目的是处理列名,将列名里为空的字符转变成-
符号,仔细一想,其实这个是可以通用的,比如处理某行数据里为空的,处理某个列表里为空的数据等,复用性很强。
(2)对缺失数据处理之 dropna 函数
dropna()
函数:对缺失的数据进行过滤。
常用参数解析:axis
:
源码注释
axis : {0 or 'index', 1 or 'columns'}, default 0
Determine if rows or columns which contain missing values are removed.
* 0, or 'index' : Drop rows which contain missing values.
* 1, or 'columns' : Drop columns which contain missing value.
.. deprecated:: 0.23.0: Pass tuple or list to drop on multiple axes.
复制代码
我的理解
少用,默认值为0,表示删除包含缺少值的行;值为1,表示删除包含缺少值的列。
复制代码
how
:
源码注释
how : {'any', 'all'}, default 'any'
Determine if row or column is removed from DataFrame, when we have at least one NA or all NA.
* 'any' : If any NA values are present, drop that row or column.
* 'all' : If all values are NA, drop that row or column.
复制代码
我的理解
默认值为any,表示如果存在任何NA(空)值,则删除该行或列;
值为all,表示如果全都是NA值,则删除该行或列。
复制代码
thresh
:
源码注释
thresh : int, optional
Require that many non-NA values.
复制代码
我的理解
不为NA的个数,满足要求的行保留,不满足的行被删除。
复制代码
inplace
:
源码注释
inplace : bool, default False
If True, do operation inplace and return None.
复制代码
我的理解
默认为False,表示不在原对象上操作,
而是复制一个新的对象进行操作并返回;
值为True时,表示直接在原对象上进行操作。
复制代码
(3)对缺失数据处理之 fillna 函数
fillna()
函数:用指定值或插值的方法填充缺失数据。
常用参数解析:value
:
源码注释
value : scalar, dict, Series, or DataFrame
Value to use to fill holes (e.g. 0), alternately a
dict/Series/DataFrame of values specifying which value to use for
each index (for a Series) or column (for a DataFrame). (values not
in the dict/Series/DataFrame will not be filled). This value cannot
be a list.
复制代码
我的理解
简单点说,就是替换NA(空值)的值。如果是直接给值,表示全部替换;
如果是字典: {列名:替换值} 表示替换掉该列包含的所有空值。
复制代码
method
:
源码注释
method : {'backfill', 'bfill', 'pad', 'ffill', None}, default None
Method to use for filling holes in reindexed Series
pad / ffill: propagate last valid observation forward to next valid
backfill / bfill: use NEXT valid observation to fill gap
复制代码
我的理解
在重新索引系列中填充空白值的方法。
pad / ffill:按列检索,将最后一次不为空的值赋给下一个空值。
backfill / bfill:按列检索,将下一个不为空的值赋给该空值。
注意:该参数不可与value 同时存在
复制代码
limit
:
源码注释
limit : int, default None
If method is specified, this is the maximum number of consecutive.
NaN values to forward/backward fill. In other words, if there is a gap
with more than this number of consecutive NaNs, it will only be partially
filled. If method is not specified, this is the maximum number of entries
along the entire axis where NaNs will be filled. Must be greater than 0 if not None.
复制代码
我的理解
其实很简单,就是按列搜索空值,然后limit的值表示最大的连续填充空值个数。
比如:limit=2,表示一列中从上到下搜索,只替换前两个空值,后面都不替换。
复制代码
吐个槽:别看源码里的英文注释单词都很简单,但,太简单了,根本连不成句子,我都是一个个实践+表面翻译,然后才能弄明白参数的意思。
3.数据爬取实战训练
五行代码爬取 2019 富豪榜(60 亿美元以上的)
import pandas as pd
# 排行榜
for i in range(15):
# 页面地址
url = "https://www.phb123.com/renwu/fuhao/shishi_%d.html" % (i+1)
# 调用read_html函数,解析页面获取数据 List
url_read = pd.read_html(url, header=0)[0]
# 将数据存入csv文件
url_read.to_csv(r'rich_list.csv', mode='a', encoding='utf_8_sig', header=0, index=False)
复制代码
页面数据:
爬取结果
通过上面实战,你需要知道:1、不要觉得怎么这么简单啊(是因为我找好了网站,这个网站数据里只有一个 table,数据也比较干净);2、真正工作中网站可能是不配合的,数据可能是不配合的,这个时候最好的方法是见仁见智,多看源代码。
4.数据可视化分析实战训练
基于我们上面拿到的数据,我们做个简单的数据可视化和分析报告。上面我们已经拿到了 2019 富豪榜(60 亿美元以上的)的数据,包含排名、姓名、财富数额、财富来源、国家这些信息,明确数据属性后,我们就该想一下我们能从那些方面去分析那些问题?我想到的几个方面:(1)排行榜上各个国家的人数各多少?那些国家最多?(2)那些公司上榜的人数最多?(3)排行榜上的人所在的行业分布?
(0)读取数据和数据可视化
读取数据我们直接利用 pandans 的 read_csv 函数。
import pandas as pd
# 原始数据文件路径
rpath_csv = 'rich_list.csv'
# 读取数据
csv_read = pd.read_csv(rpath_csv)
# 提取出来的数据是pandans的Series对象
# 后期处理可以直接转换成列表
name_list = csv_read["名字"]
money_list = csv_read["财富(10亿美元)"]
company_list = csv_read["财富来源"]
country_list = csv_read["国家/地区"]
复制代码
数据可视化,我们从最简单的 pyecharts 模块。
pip install pyecharts==0.5.11
复制代码
(1)排行榜上各个国家的人数各多少?那些国家最多?
# 排行榜上各个国家的人数各多少?那些国家最多?
"""
1、统计数据
利用collections模块的Counter函数
"""
country_list = list(country_list)
from collections import Counter
dict_number = Counter(country_list)
"""
2、数据可视化
利用pyecharts模块的Bar类
"""
bar = Bar("富豪国家分布柱状图")
bar.add("富豪", key_list, values_list, is_more_utils=True, is_datazoom_show=True,
xaxis_interval=0, xaxis_rotate=30, yaxis_rotate=30, mark_line=["average"], mark_point=["max", "min"])
bar.render("rich_country.html")
复制代码
从上面数据,我们可以很明显的发现,富豪榜上富豪的国籍,美国居多,而且可以说是遥遥领先,总共是300
人,美国国籍的有106
人,占了总数据的1/3
还多,这个比较好理解,美国一直是一个超级大国,各个方面的发展都位列全球前列。
位列第二的是中国,占了43
人,也是特别多的,而且对于中国,发展到现在是非常非常不容易的,从 1949 年成立,到今年 2019 年,建国 70 年,从“为中华之崛起而读书”到“为实现中国梦、建设富强民主文明和谐美丽的社会主义现代化强国而奋斗”,作为中国人,我是骄傲的。
第三名是德国和俄罗斯,各占20
人,德国是个工业大国,欧洲最大经济体,所以德国的强健是显而易见的,另外俄罗斯,世界面积最大的国家,曾经苏联也是世界第二经济强国,虽然苏联解体后不如从前,但近几年普京执政,经济稳步回升。
再后面的国家中以欧洲国家居多,其中第五是印度,其科技实力十分发达。
(2)那些公司上榜的人数最多?
注意哦~能上这个榜的,财富最低都是 60 亿美元,从统计数据来看,玛氏公司上榜人数最多,有 6 个上榜的富豪来自玛氏公司,其次是沃尔玛百货有限公司,有 3 个人来自该公司,这两个公司都是日化类公司,接下来的:微软、Facebook、谷歌都是科技类公司
不查一下,我还真不知道原来“饿货,快来条士力架”的士力架、“德芙,纵享丝滑”的德芙是来自一家公司的,而且是玛氏公司的,此处双击 666。另外沃尔玛在 2018 年被评选为世界五百强的第一位,莫种意义来说,这就是宇宙最强公司啊~(小时候我一直以为富迪是最厉害的超市,长大后我又以为万达是最厉害的超市,现在,我知道了,是沃尔玛!)
(3)排行榜上的人所在的行业分布?等你回答
这部分其实是不好做的,因为我们获取到的数据里没有直接和行业相连的数据,唯一能和行业有点联系的就是公司,这就需要我们通过公司名称去判断(或者在网上获取)该公司的类别属性,比如是互联网公司,还是传统行业等等方面。
三 送你的话
坚持 and 努力 : 终有所获。
思想很复杂,
实现很有趣,
只要不放弃,
终有成名日。
—《老表打油诗》
下期见,我是爱猫爱技术的老表,如果觉得本文对你学习有所帮助,欢迎点赞、评论、关注我!
评论