一、爬取目标
本次目标网站:百度翻译(https://fanyi.baidu.com/),输入一个关键词后返回翻译结果:
二、环境准备
Python:3.10
编辑器:PyCharm
第三方模块,自行安装:
pip install requests # 网页数据爬取
复制代码
三、代理 IP 获取
由于百度翻译限制很严,为了能正常获取数据这里必须使用到代理 IP。
3.1 爬虫和代理 IP 的关系
爬虫和代理 IP 之间的关系是相互依存的。代理 IP 为爬虫提供了绕过 IP 限制、隐藏真实 IP、提高访问速度等能力,使得爬虫能够更有效地进行数据抓取。然而,在使用时也需要注意合法性、稳定性、成本以及隐私保护等问题。
3.2 巨量 IP 介绍
巨量 IP 提供免费 HTTP 代理 IP 和长效静态 IP、短效 IP、动态 IP 代理、隧道代理等服务,支持按时、按量、按时按量 3 种计费方式,根据业务场景需求,让套餐的选择变得更灵活:巨量IP官网
3.3 超值企业极速池推荐
博主经常写爬虫代码使用的是巨量 IP 家的企业极速池,每日 500 万去重 IP,单 IP 低至 0.005 元 (按量计费),并且充值加赠 50%,不得不说真的很香:
经常使用爬虫的小伙伴推荐使用 IP 时效:1 分钟的套餐性价比超高。
3.4 免费 IP 领取
巨量 IP 还提供每日 1000 个免费 IP 供大家使用:代理IP免费领取
3.5 代码获取 IP
1、点击产品管理找到我们 购买或者领取 的套餐:
2、将自己电脑的 IP 添加为白名单能获取代理 IP,点击授权信息:
3、依次点击修改授权》快速添加》确定
4、添加完成后,点击生成提取链接:
5、设置每次提取的数量,点击生成链接,并复制链接:
6、将复制链接,复制到地址栏就可以看到我们获取到的代理 IP 了:
7、代理获取 IP(注意:下面 url 需要换成你的链接):
import requests
import time
import random
def get_ip():
url = "这里放你自己的API链接"
while 1:
try:
r = requests.get(url, timeout=10)
except:
continue
ip = r.text.strip()
if '请求过于频繁' in ip:
print('IP请求频繁')
time.sleep(1)
continue
break
proxies = {
'https': '%s' % ip
}
return proxies
if __name__ == '__main__':
proxies = get_ip()
print(proxies)
复制代码
获取成功:
四、爬虫代码实战
4.1 分析网页
在翻译栏左侧输入内容,并不需要刷新网页,翻译结果可实时返回,说明该翻译网站为进行 Ajax 加载的网站:
Ajax(Asynchronous JavaScript and XML)是一种在无需重新加载整个网页的情况下,能够更新部分网页内容的技术。它通过在后台与服务器交换数据,并允许网页异步更新,从而提升了用户体验。
4.2 寻找接口
1、鼠标右击》检查》选择 XHR,输入翻译内容,找到对应的翻译接口:
2、找到接口网址(https://fanyi.baidu.com/sug)和请求方式(Post 请求):
3、可以看到携带的参数就是我们输入的内容:
4.3 参数构建
下面代码构建一个携带参数的 post 请求:
# 1. 百度接口链接
post_url = 'https://fanyi.baidu.com/sug'
# 2. 创建post请求携带的参数,将手动输入需要翻译的单词传进去
data = {
'kw': kw
}
# 3. 携带请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36 Edg/111.0.1661.51'}
# 使用post 请求(和get类似)
data_json = requests.post(url=post_url, data=data, headers=headers).json()
复制代码
4.4 完整代码
注意下面代码需要修改 get_ip()
函数中 url
添加你自己的代理 IP 接口 url(防止被识别到为爬虫):
import requests
import time
def get_ip():
url = "这里换成自己的代理IP接口url"
while 1:
try:
r = requests.get(url, timeout=10) #
except:
continue
ip = r.text.strip()
if '请求过于频繁' in ip:
print('IP请求频繁')
time.sleep(1)
continue
break
proxies = {
'https': '%s' % ip
}
return proxies
def get_data(kw):
# 1. 百度接口链接
post_url = 'https://fanyi.baidu.com/sug'
# 2. 创建post请求携带的参数,将手动输入需要翻译的单词传进去
data = {
'kw': kw
}
# 3. 携带请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36 Edg/111.0.1661.51'}
# 4. 获取代理IP
proxies = get_ip()
# 使用post 请求
data_json = requests.post(url=post_url, data=data, headers=headers,proxies=proxies).json()
# print(data_json)
for key in data_json['data'][0]:
print(key, data_json['data'][0][key])
def main():
while True:
# 手动输入需要翻译的单词
kw = input("请输入需要翻译的单词:")
get_data(kw)
if __name__ == '__main__':
main()
复制代码
可以看到中文翻译为英文,英文翻译为中文都可以轻松实现:
五、总结
代理 IP 对于爬虫是密不可分的,代理 IP 可以安全采集公开数据信息,有需要代理 IP 的小伙伴可以试试巨量家的超值企业极速池:巨量IP官网
评论