写点什么

【Python 技能树共建】pyspider 框架的使用

作者:梦想橡皮擦
  • 2022 年 6 月 16 日
  • 本文字数:1519 字

    阅读完需:约 5 分钟

pyspider 实战案例微医挂号网专家团队数据

今天尝试使用一个新的爬虫库进行数据的爬取,这个库叫做pyspider,国人开发的,当然支持一下。


github 地址: https://github.com/binux/pyspider官方文档地址:http://docs.pyspider.org/en/latest/


安装起来是非常简单的


pip install pyspider 
复制代码


安装之后,启动 在CMD控制台里面敲入命令


pyspider
复制代码


出现如下界面,代表运行成功,一般情况下,你的电脑如果没有安装 phantomjs 他会先给你安装一下。



接下来打开浏览器,访问地址输入 127.0.0.1:5000, 应该显示如下界面,就可以愉快的进行编码了~



3 步创建一个项目


微医挂号网专家团队数据----库基本使用入门

这款工具的详细使用,给你提供一个非常好的博文,写的很完善了,我就不在赘述了。咱们直接进入到编码的部分。


https://blog.csdn.net/weixin_37947156/article/details/76495144

微医挂号网专家团队数据----爬虫源码

我们要爬取的目标站点是微医挂号网专家团队数据 网页地址https://www.guahao.com/eteam/index



分析 AJAX 链接地址,寻找爬取规律



经过分析之后获取到的链接为 https://www.guahao.com/json/white/search/eteams?q=&dept=&page=2&cid=&pid=&_=1542794523454


其中page参数最重要,表示页码,实际测试中发现,当代码翻页到 <font color=red>84 页</font>的时候,数据竟然开始重复了,应该是网站本身系统的问题,这个没有办法。

爬虫流程

  1. 获取总页数

  2. 循环爬取每页的数据

爬取总页数

在入口函数on_start的位置去爬取第一页数据,爬取成功之后调用index_page函数


from pyspider.libs.base_handler import *import pandas as pd
class Handler(BaseHandler): crawl_config = { }
@every(minutes=24 * 60) def on_start(self): self.crawl('https://www.guahao.com/json/white/search/eteams?page=1', callback=self.index_page,validate_cert=False)
复制代码


index_page函数用来获取页码总数,并且将所有待爬取的地址存放到 self.crawl 中,这个地方因为数据重复的原因,最终硬编码为 84 页数据了


    @config(age=10 * 24 * 60 * 60)    def index_page(self, response):        doctors = response.json        if doctors:            if doctors["data"]:                page_count = doctors["data"]["pageCount"]                #for page in range(1,page_count+1):                for page in range(1,85):                    self.crawl('https://www.guahao.com/json/white/search/eteams?page={}'.format(page),callback=self.detail_page,validate_cert=False)
复制代码


最后一步,解析数据,数据爬取完毕,存放到 csv 文件里面


    @config(priority=2)    def detail_page(self, response):        doctors = response.json        data = doctors["data"]["list"]        return data        def on_result(self,result):        if result:            print("正在存储数据....")            data = pd.DataFrame(result)            data.to_csv("专家数据.csv", mode='a', header=False, encoding='utf_8_sig')
复制代码


完成的代码预览



回到主页面,此时看到任务列表显示了我们刚刚创建的任务,设置 status 为 running,然后点击 Run 按钮执行



执行完成后,点击 Results 按钮,进入到爬取结果的页面



等着就可以了

微医挂号网专家团队数据----最后几步

  1. Web UI 控制台上的 rate/burst 参数来调节速度,rate 是 每秒抓取的数量,burst 是并发的数量



  1. pyspider 爬取完毕之后,你在点击 run 是不会在运行的。解决办法如下,停止 pyspider,找到下图的几个文件 project.db 和 result.db 两个文件不要删除,删除其他文件即可。



写完啦~ 得到了 ·1000·多个专家团队。

发布于: 刚刚阅读数: 2
用户头像

爬虫 100 例作者,蓝桥签约作者,博客专家 2021.02.06 加入

6 年产品经理+教学经验,3 年互联网项目管理经验; 互联网资深爱好者; 沉迷各种技术无法自拔,导致年龄被困在 25 岁; CSDN 爬虫 100 例作者。 个人公众号“梦想橡皮擦”。

评论

发布
暂无评论
【Python技能树共建】pyspider框架的使用_Python_梦想橡皮擦_InfoQ写作社区