一、爬取目标
本次目标网站:百度翻译(https://fanyi.baidu.com/),输入一个关键词后返回翻译结果:
二、环境准备
Python:3.10
编辑器:PyCharm
第三方模块,自行安装:
 pip install requests # 网页数据爬取
       复制代码
 三、代理 IP 获取
由于百度翻译限制很严,为了能正常获取数据这里必须使用到代理 IP。
3.1 爬虫和代理 IP 的关系
爬虫和代理 IP 之间的关系是相互依存的。代理 IP 为爬虫提供了绕过 IP 限制、隐藏真实 IP、提高访问速度等能力,使得爬虫能够更有效地进行数据抓取。然而,在使用时也需要注意合法性、稳定性、成本以及隐私保护等问题。
3.2 巨量 IP 介绍
巨量 IP 提供免费 HTTP 代理 IP 和长效静态 IP、短效 IP、动态 IP 代理、隧道代理等服务,支持按时、按量、按时按量 3 种计费方式,根据业务场景需求,让套餐的选择变得更灵活:巨量IP官网
3.3 超值企业极速池推荐
博主经常写爬虫代码使用的是巨量 IP 家的企业极速池,每日 500 万去重 IP,单 IP 低至 0.005 元 (按量计费),并且充值加赠 50%,不得不说真的很香:
经常使用爬虫的小伙伴推荐使用 IP 时效:1 分钟的套餐性价比超高。
3.4 免费 IP 领取
巨量 IP 还提供每日 1000 个免费 IP 供大家使用:代理IP免费领取
3.5 代码获取 IP
1、点击产品管理找到我们 购买或者领取 的套餐:
2、将自己电脑的 IP 添加为白名单能获取代理 IP,点击授权信息:
3、依次点击修改授权》快速添加》确定
4、添加完成后,点击生成提取链接:
5、设置每次提取的数量,点击生成链接,并复制链接:
6、将复制链接,复制到地址栏就可以看到我们获取到的代理 IP 了:
7、代理获取 IP(注意:下面 url 需要换成你的链接):
 import requestsimport timeimport random
def get_ip():    url = "这里放你自己的API链接"    while 1:        try:            r = requests.get(url, timeout=10)        except:            continue
        ip = r.text.strip()        if '请求过于频繁' in ip:            print('IP请求频繁')            time.sleep(1)            continue        break    proxies = {        'https': '%s' % ip    }
    return proxies
if __name__ == '__main__':    proxies = get_ip()    print(proxies)
       复制代码
 
获取成功:
四、爬虫代码实战
4.1 分析网页
在翻译栏左侧输入内容,并不需要刷新网页,翻译结果可实时返回,说明该翻译网站为进行 Ajax 加载的网站:
Ajax(Asynchronous JavaScript and XML)是一种在无需重新加载整个网页的情况下,能够更新部分网页内容的技术。它通过在后台与服务器交换数据,并允许网页异步更新,从而提升了用户体验。
4.2 寻找接口
1、鼠标右击》检查》选择 XHR,输入翻译内容,找到对应的翻译接口:
2、找到接口网址(https://fanyi.baidu.com/sug)和请求方式(Post 请求):
3、可以看到携带的参数就是我们输入的内容:
4.3 参数构建
下面代码构建一个携带参数的 post 请求:
 # 1. 百度接口链接  post_url = 'https://fanyi.baidu.com/sug'  # 2. 创建post请求携带的参数,将手动输入需要翻译的单词传进去  data = {  'kw': kw  }  # 3. 携带请求头  headers = {  'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36 Edg/111.0.1661.51'}  # 使用post 请求(和get类似)  data_json = requests.post(url=post_url, data=data, headers=headers).json()
       复制代码
 4.4 完整代码
注意下面代码需要修改 get_ip() 函数中 url 添加你自己的代理 IP 接口 url(防止被识别到为爬虫):
 import requestsimport time
def get_ip():    url = "这里换成自己的代理IP接口url"    while 1:        try:            r = requests.get(url, timeout=10) #        except:            continue
        ip = r.text.strip()        if '请求过于频繁' in ip:            print('IP请求频繁')            time.sleep(1)            continue        break    proxies = {        'https': '%s' % ip    }
    return proxies
def get_data(kw):    # 1. 百度接口链接    post_url = 'https://fanyi.baidu.com/sug'    # 2. 创建post请求携带的参数,将手动输入需要翻译的单词传进去    data = {        'kw': kw    }    # 3. 携带请求头    headers = {        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36 Edg/111.0.1661.51'}    # 4. 获取代理IP    proxies = get_ip()    # 使用post 请求    data_json = requests.post(url=post_url, data=data, headers=headers,proxies=proxies).json()    # print(data_json)    for key in data_json['data'][0]:        print(key, data_json['data'][0][key])
def main():    while True:        # 手动输入需要翻译的单词        kw = input("请输入需要翻译的单词:")        get_data(kw)
if __name__ == '__main__':    main()
       复制代码
 
可以看到中文翻译为英文,英文翻译为中文都可以轻松实现:
五、总结
代理 IP 对于爬虫是密不可分的,代理 IP 可以安全采集公开数据信息,有需要代理 IP 的小伙伴可以试试巨量家的超值企业极速池:巨量IP官网
评论