python 数据分析找到老外最喜欢的中国美食【完整代码】
一、环境及依赖
语言:python3.8 抓取:selenium 代理:ipide**注:**想要完整代码的在末尾,注意新手建议慢慢看完。在此提示一下本篇文章的编写步骤:1.获取数据、2.翻译、3.数据清洗、4.切词词权重、5.词云
1.1 selenium 准备
为了简单,在这里我使用了 selenium(菜鸟用 selenium,我就是菜鸟)进行数据抓取,并且使用了 ipidea 的代理(反正有送稳妥),否则等着测试着调试太多次我 IP 就炸了。
selenium 可使用 pip 进行下载,命令是:
下载了 selenium 之后还需要一个 driver,需要查看你浏览器版本,仅支持火狐或者谷歌。在此用谷歌距离,首先点击 Chorm 浏览器右上角三个点:
选择帮助,关于 google 进入 chrome://settings/help 页。随后找到对应的版本号:
接下来进入到 driver 的下载地址:http://chromedriver.storage.googleapis.com/index.html
接着在对应的版本号中找到接近的 driver 进行下载:
随后点击后选择对应的版本即可:
windows 就用 win32 就可以了,下载后解压到一个目录就 ok。
二、数据获取
2.1 代理
接着代理我使用的是 IPIDE,官网是这个链接,免费使用就 ok,够用了。
第一步咱们得拿到数据,那么通过代理去进行获取。首先创建一个 python 文件名为 test1,当然名字自己随便取。接着使用 vscode(你可以用你的),头部引入:
接着我们写一个头:
基础做好后首先需要获取代理,我们写一个函数名为 ip_:
以上代码中 url 存储的 http://tiqu.ipidea.io:81/abroad?num=1&type=2&lb=1&sb=0&flow=1®ions=in&port=1
为代理获取的链接,有些小伙伴可能获取的时候会失败,原因是没有设置当前 ip 为白名单。
设置白名单的方式很简单,通过链接在末尾替换自己的白名单就可以了:https://api.ipidea.net/index/index/save_white?neek=***&appkey=***************************&white=白名单ip
,自己的白名单添加链接在 https://www.ipidea.net/getapi:
如果我公开我的出来我基本上大家都可以用我的了,所以打个码。
我们继续回到函数 ip_()中,r = requests.get(url, headers=headers,timeout=3)
将会获取到代理 ip 地址,接着我使用了 json 进行转化:data = json.loads(r.content)
,最终返回了 ip 地址。IP 获取的方式过于简单就不再讲解了。
接下来获取代理与组成 ip 代理字符串:
接着使用 webdriver 对谷歌浏览器设置代理:
以上代码中 options.add_argument 为对浏览器添加代理,之后的两句话只是为了忽略某些错误,当然你不加基本上也没事。
2.2 抓取数据
接着创建一个变量 url 存储需要抓取页的链接:
接下来创建 谷歌浏览器 对象:
webdriver.Chrome 中的 executable_path 为指定下载 driver 的地址,option 为代理的配置。
创建好后 driver 你就可以理解成是 Chrome 谷歌浏览器对象了,使用谷歌浏览器打开一个指定页面只需要使用 get 方法,在 get 方法内传递一个 url。
由于我们发现该页面是浏览器滑动到底部自动刷新,此时我们只需要使用循环重复一直往下滑动就可以了:
以上循环中的代码 driver.execute_script 表示执行 script 命令,其中 window.scrollTo(0, document.body.scrollHeight);
就是对应的滑动命令。每次滑动过后就给他歇一下,不然一直划效果不是很好,所以就使用 sleep 休息 10s 等待加载。
接着我们获取页面中一下一块块的数据:
为了防止遗漏出什么不好饿内容,在此我打了一下码。此时我们可以使用右键检查,打开源码:
此时我们可以看到这一块 html 代码下就是对应的内容:
我们从中得知,这个部分的 class 的名称是 q-box,我们可以通过 driver 中的 find_element_by_class_name 的方法,找到这个元素,并且得到对应的文本。
接着我们观看所有的内容块得知,都是使用 q-box 作为名称:
接着我们只需要使用代码:
就可以抓取到这所有名为 q-box 的对象。此时我们只需要对这个对象使用 .text 即可获取文本,再使用 f.write 将其写入到文本之中:
该部分的完整代码如下:
三、切词统计
3.1 数据清洗
接着咱们可以对数据进行翻译,不过免费的库有每日限制,那么最好的办法,不花钱的办法就是赋值内容去在线翻译去翻译,对的,虽然数据有点多,不过还好,问题不大。
翻译完成复制的一个文本之中,这个文本我命名为 datacn。在此创建一个名称为 cut 的 py 文件,并且在头部引入:
引入之后创建一个函数用于读取翻译过来的文本 datacn 的内容:
代码很简单,就是 open 文件,read 读取就完成了,不过有些同学容易出现编码错误,记得一定要加 encoding="utf-8",如果还不信,你就将文本另存为,在另存为时选择编码为 utf-8 就可以了:
接着,咱们再创建一个清洗内容的函数:
其实上面函数的作用就是找到中文字符返回,其他的内容就不要了,不然会影响效果,例如一些标点符号和英文字母等。
接着我们直接读取数据:
其中 path 是路径,就是我翻译过来的文本存储的路径,然后传入参数 get_str 中就可以了,这样读到的数据就是 text,急着再把 text 传入到清洗函数 word_chinese 中进行清洗,这样清楚不好的数据就 ok 了。
3.2 词频权重统计
但是这个时候还是有一些不好的词语,例如 你、我、他、你好、知道...这些内容,怎么去掉呢?这个时候就使用结巴库设置一些词不要 jieba.analyse.set_stop_words
,代码是:
其中 D:\StopWords.txt
这个文本中记录了不要的词,我为了数据准确我自己调了一堆的词,想要的可以看评论区,数据太多不好直接复制上来。
设置好之后就可以自动过滤了,下一步就是切词统计词频,这一步的代码是:
使用的方法是 jieba.analyse.textrank(),其中 text 就是我们清理过的文本,topk 是指你要得到词频前几,我这里是 topk=168 就是表示得到出现频率最多的钱 168 个词,函数其中 withWeight=True 表示结果中出现词频权重数值,例如不使用 withWeight=True 结果如下:
不开启 withWeight 结果则显示:
此时结果已经得到了,发现老外最喜欢、提的次数最高的竟然是酱油,然后是喜欢。看来是真的挺喜欢的。
接着咱们先做个词云,再做分析。词云需要字符串,不能使用数组,使用以下代码使其成为字符串:
接着创建词云对象:
在词云对象的配置中,background_color 是字符串,width 和 height 是词云宽度,font_path 是设置字体。在此注意,字体一定要设置,否则将会看不到任何文字。
接着将字符串传递给创建的词云对象 wc 的 generate 函数:
接下来就使用 plt 显示就可以了:
完整代码如下:
最终的结果如下:
四、从数据中找到 TOP 之最
由于数据太多,不方便用折线图之类统计,我从权重中找到了老外提到最 Top 的几个纬度。所有排名如下:
老外提到最多 Top :美食圣地依次是香港、澳门、广东、无锡、广州、北京、闽南;提到食物最多的是:炒饭、米饭、豆腐、大豆、牛肉、面条、火锅、炒菜、饺子、蛋糕、包子提到最多口味:糖醋、咸味提到最多的厨具:火锅、陶罐、石锅、灶台
不过第一是酱油是啥情况,而且喜欢第二,看来大家都比较喜欢我们的食物呀!很赞!
版权声明: 本文为 InfoQ 作者【1_bit】的原创文章。
原文链接:【http://xie.infoq.cn/article/49ce2c119efb4d12ff917e6fc】。未经作者许可,禁止转载。
评论