写点什么

ChatGPT 编程秀 -1:从一个爬虫开始

作者:仝键
  • 2023-03-23
    北京
  • 本文字数:6085 字

    阅读完需:约 20 分钟

思考问题域

我要写一个爬虫,把 ChatGPT 上我的数据都爬下来,首先想想我们的问题域,我想到几个问题:


  • 不能用 HTTP 请求去爬,如果我直接用 HTTP 请求去抓的话,一个我要花太多精力在登录上了,而我的数据又不多,另一个,现在都是单页引用,你 HTTP 爬下来的根本就不对啊。

  • 所以最好是自动化测试的那种方式,启动浏览器去爬。

  • 但是我又不能保证一次把代码写成功,反复登录的话,会被网站封号,就几个数据,不值当的。


所以总的来说我需要一个这样的流程:



从流程上我们是不是可以看出,这个流程跟我们用 WebConsole 试验一段代码的过程很像?



从这种相似性可以看出,我需要一个类似 WebConsole 的东西来实现我要的效果,这个东西学名叫 REPL(Read–eval–print loop),不过你不知道这个名字也无所谓,不影响。


而且还不止,我需要从文件读入我的代码,毕竟没有代码高亮,我可写不好程序。从文件读入的话,我就可以用 vscode 给我提供代码高亮,这岂不是美滋滋。


想到这,如果是以前,我已经一个头两个大了,我只是想抓点东西,你让我搞个 REPL,这玩意听着就不科学,我一天就晚上有一个小时的时间写点代码,这玩意太复杂了,乍一看也不是我业余时间能写出来的。


但是现在,我们有了 ChatGPT,那么我接下来可以用 ChatGPT 开始写,简单做一个任务分解:


  1. 写一个框架,可以最大限度的帮我们提高开发效率

  2. 在这个框架上,一个场景一个场景的开发爬虫

用 ChatGPT 写一个爬虫

1. 先写一个框架

首先,我可能不知道这个东西叫 REPL,但是我知道控制台,那我就这么问:


如何用 nodejs 做一个命令行交互控制台,执行输入的 js 代码


然后我就得到了下面的代码:


const readline = require('readline');
const rl = readline.createInterface({input: process.stdin,output: process.stdout,prompt: '>> '});
rl.prompt();
rl.on('line', (line) => {try { const result = eval(line); console.log(result);} catch (err) { console.error(err);}rl.prompt();});
rl.on('close', () => {console.log('Exiting...');process.exit(0);});
复制代码


但是这个代码还不够我用的,我需要文件输入,所以我可以问:


如果是读入文件作为输入呢?


然后我得到了下面的代码:


const fs = require('fs');
const fileName = 'path/to/file.js';const fileContent = fs.readFileSync(fileName, 'utf8');
try {const result = eval(fileContent);console.log(result);} catch (err) {console.error(err);}
复制代码


第一反应,这个不是 async/await 模式调用的呀,我后面代码写起来会很麻烦,于是我就说:


我要用 fs/promises 库实现上面逻辑怎么写呢?


然后我就得到了下面的代码:


const fs = require('fs').promises;
const fileName = 'path/to/file.js';const fileContent = await fs.readFile(fileName, 'utf8');
try {const result = eval(fileContent);console.log(result);} catch (err) {console.error(err);}
复制代码


这个点算是令我满意了,但马上我又意识到不对劲,我需要执行完之后 hang 在那里等待下一次输入的,他这执行完就退出了,于是我又改进了的问题:


我要实现的效果是,启动后在命令行里打印一个“>”然后等待输入,我敲击回车,程序就会读入代码中写死的目标文件,并执行其中的 js,然后重新打印一个“>“等待下一次输入,无限循环。


然后我得到了下面的代码:


const readline = require('readline');const fs = require('fs').promises;
const rl = readline.createInterface({input: process.stdin,output: process.stdout,prompt: '> '});
let filePath = 'path/to/target/file.js';rl.prompt();
rl.on('line', async () => {try { const fileContent = await fs.readFile(filePath, 'utf8'); const result = eval(fileContent); console.log(result);} catch (err) { console.error(err);}rl.prompt();});
rl.on('SIGINT', () => {console.log('Exiting...');rl.close();process.exit(0);});
复制代码


注意,我再第一次的时候忘记了写”无限循环“,所以他写的代码就只执行两次,仔细一看,确实这样实现也符合我说的逻辑,他没有猜测我要无限循环,所以在使用的时候要注意,有时候没得到你想要的结果可能是你没说清楚。


那么看起来到此为止就差不多了,没想到也不复杂。那我测试一下。


我建立了一个下面的工程结构:


.├── index.js└── input    └── input.js
复制代码


把文件名写死为input/input.js

执行 node index.js


彩蛋:其中有一次执行的代码在后续执行发现错误,原来是 await 用错了,不过没关系,直接拷给他:

  • 上面的代码执行报错: SyntaxError: await is only valid in async functions and the top level bodies of modules

于是得到了修改后的代码

2. 在这个框架上,开发爬虫

那么接下来,我可以试着抓取一下列表了,这部分 GPT3.5 就不能胜任了,我切换到 GPT4,然后问:


我用 puppeteer 打开一个网页,可以直接用 document DOM API 操作,然后返回数据,请抓取这个网页的列表,HTML 如下:

.....


下面省略是 openAI 的页面代码,但是呢,因为他太大了,我不得不手动做了点删减,比如我列表很长,我就减到只剩 3 个元素,其他无关的元素的代码我都删掉。


经过几次询问,他给出了我代码:


const puppeteer = require('puppeteer');
(async () => { const browser = await puppeteer.launch(); const page = await browser.newPage(); await page.goto('你的网址'); // 将'你的网址'替换为您要打开的页面的实际URL
const list = await page.evaluate(() => { const anchors = document.querySelectorAll('a'); const items = [];
for (const anchor of anchors) { const itemText = anchor.querySelector('div.flex-1.text-ellipsis.max-h-5.overflow-hidden.break-all.relative'); if (itemText) { const itemTitle = itemText.textContent.trim(); const itemLink = anchor.href; items.push({ title: itemTitle, link: itemLink }); } }
return items; });
console.log(list);
await browser.close();})();
复制代码

3. 回到任务 1 的问题域

真到执行的时候又发现新问题,这个 puppeteer 我希望他一直开着,就不能在 input.js 里启动,我需要在 REPL 代码里就执行,所以我需要稍微修改下代码,我说:


我需要在控制台启动的时候用 puppeteer 启动一个浏览器,然后每次回车可以让文件中的代码可以通过 puppeteer 访问启动的这个浏览器


然后得到了代码:


async function main() {const readline = require('readline');const fs = require('fs').promises;const puppeteer = require('puppeteer-core');
const rl = readline.createInterface({ input: process.stdin, output: process.stdout, prompt: '> '});
const browser = await puppeteer.launch({ executablePath: '/Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome'});
let filePath = 'path/to/target/file.js';rl.prompt();
async function executeWithBrowser(browser) { const fileContent = await fs.readFile(filePath, 'utf8');
return eval(`async function (browser) { ${fileContent} }`)(browser);}
rl.on('line', async () => { try { const result = await executeWithBrowser(browser); console.log(result); } catch (err) { console.error(err); } rl.prompt();});
rl.on('SIGINT', async () => { console.log('Exiting...'); await browser.close(); rl.close(); process.exit(0);});}
main();
复制代码


这代码还是不令我满意,我又接连问了下面几个问题:


  • 我需要 browser 是 GUI 可见的

  • 把 path/to/target/file.js 改为 input/input.js

  • 我需要在进入 input/input.js 之前直接启动一个 page,里直接访问 page 而不是 browser

  • 这行代码: return eval(async function (page) { ${fileContent} })(page);

  • 报错:

  • xxxx 能不能不用 eval?

  • 报错: /Volumes/MyLab/chatgpt-show/crawler/workspace/v1/index.js:11

  • const browser = await puppeteer.launch({

  • ^^^^^

  • SyntaxError: await is only valid in async functions and the top level bodies of modules


最后得到了我可以执行的代码。不过实际执行中还出现了防抓机器人的问题,经过一些列的查找解决了这个问题,为了突出重点,这里就不贴解决过程了,最终代码如下:


const readline = require('readline');const fs = require('fs').promises;// const puppeteer = require('puppeteer-core');const puppeteer = require('puppeteer-extra')
// add stealth plugin and use defaults (all evasion techniques)const StealthPlugin = require('puppeteer-extra-plugin-stealth');puppeteer.use(StealthPlugin());
(async () => {const rl = readline.createInterface({ input: process.stdin, output: process.stdout, prompt: '> '});
const browser = await puppeteer.launch({ executablePath: '/Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome', headless: false, args: ['--no-sandbox', '--disable-setuid-sandbox', '--disable-web-security']});
const page = await browser.newPage();
let filePath = 'input/input.js';rl.prompt();
async function executeWithPage(page) { const fileContent = await fs.readFile(filePath, 'utf8');
const func = new Function('page', fileContent); return func(page);}
rl.on('line', async () => { try { const result = await executeWithPage(page); console.log(result); } catch (err) { console.error(err); } rl.prompt();});
rl.on('SIGINT', async () => { console.log('Exiting...'); await browser.close(); rl.close(); process.exit(0);});})();
复制代码

4. 最后回到具体的爬虫代码

而既然浏览器一直开着了,那我们需要执行的代码其实只有两个了:


  • goto_chatgpt.js


(async () => {    await page.goto('https://chat.openai.com/chat/'); })();
复制代码


  • fetch_list.js


(async () => {    const list = await page.evaluate(() => {        const anchors = document.querySelectorAll('a');        const items = [];
for (const anchor of anchors) { const itemText = anchor.querySelector('div.flex-1.text-ellipsis.max-h-5.overflow-hidden.break-all.relative'); if (itemText) { const itemTitle = itemText.textContent.trim(); const itemLink = anchor.href; items.push({ title: itemTitle, link: itemLink }); } } return items; }); console.log(list);})();
复制代码


当然实际上 fetch_list.js 有点问题,因为 openai 做了防抓程序,我们可能很难搞到列表项的链接,不过这个也不难,我们用名字匹配挨个点就好了嘛,反正也不多。


比如下面这样:


(async () => {    const targetTitle = 'AI Replacing Human';    const targetSelector = await page.evaluateHandle((targetTitle) => {        const anchors = document.querySelectorAll('a');
for (const anchor of anchors) { const itemText = anchor.querySelector('div.flex-1.text-ellipsis.max-h-5.overflow-hidden.break-all.relative'); if (itemText && itemText.textContent.trim() === targetTitle) { return anchor; } }
return null; }, targetTitle);
if (targetSelector) { const box = await targetSelector.boundingBox(); await page.mouse.click(box.x + box.width / 2, box.y + box.height / 2); console.log(`Clicked the link with title "${targetTitle}".`); } else { console.log(`No link found with title "${targetTitle}".`); }})();
复制代码


说句题外话,上面的代码很有意思,似乎它为了防止点某个具体元素不管用,竟然点击了一个区域。


接下来如果我们想备份我们的每一个 thread 就可以在这个基础上,让 ChatGPT 继续给我们写实现完成即可,这里就不继续展开了,大家可以自己完成。

回顾一下,我们做了什么,得到了什么?

  • 首先,我们对问题域做了分析,把目标网站和工作者我本人以及时间限制等约束都纳入了问题域进行了分析,得到了一个方案,然后通过类比发现我们的方案其实就是做一个有特定上下文的 REPL,然后用这个 REPL 再去干具体的事。

  • 接着,我们基于这个方案做了任务分解,粗略分成了做一个 REPL 和实现具体的抓取代码两部分。

  • 接着我们靠 ChatGPT 把些任务实现,在实现的过程中,我们发现自己对问题域的细节了解不够,于是我们又迭代了我们的任务列表。可以说方案没有大的变化,实现上做了很多调整。


最终,我们就靠 ChatGPT 把这个 REPL 给做了出来,为了写一个这样的小功能,我们做了个框架,颇有点为了这点醋才包的这顿饺子的味道了。这要是在以前的时代,是一个巨大的浪费,但其实先做一个框架的思路在 ChatGPT 时代应该成为一种习惯,它会从两个方面带来好处:


  1. 可以降低输入的文本数量,避免 ChatGPT 犯错。因为很多人都知道,ChatGPT 可以快速写出一些小程序,但是长一点的总是会出错,很多人到这里就放弃了,但其实,我们会发现如果我们能把问题分解到它恰好擅长的领域我们就可以最大限度的利用它的优势,规避它的劣势。人类历史上,蒸汽机车发明的时候,它肯定不如马耐颠,但为了充分理由他的优势,人们为它铺了铁轨。直到今天为了发挥机动车的效力,我们还是要修路铺轨,但是我们并不觉得有什么不对,从这个角度来讲,我们也不该只盯着 ChatGPT 的缺点看,扬长避短才是正道。

  2. 缩短反馈环,提高效率。从整体效率角度来讲,只有反馈环的缩短才是真正提高了效率,某一步的快速完成并不真正提高效率。所谓反馈环的缩短在我们的上下文里就是”我想到怎么编码完成任务 -> 编码 -> 测试 -> 得知代码执行失败->我又想到怎么编码完成任务"的这个循环,我们不能假设代码编写一次成功,所以这个环越短,我们的效率就越高。在这个例子里我想到了我不能一次写对,所以我就先做了 REPL,这就是所谓磨刀不误砍柴工。但是道理大家都懂,在有 ChatGPT 之前,磨刀这个事他总是误砍柴工的,但是在今天,你可以用几个问题就得到一个趁手的工具,开始你的工作,所以不要着急冲进去工作,先做个工具可能是新时代的好习惯。


下一篇,我们将进入这样一个场景:我基于这个框架,我写了很多爬虫代码,我该怎么组织和管理这些代码呢?我需不需要一个精妙设计的内部框架和规范来组织我的代码呢?


发布于: 21 小时前阅读数: 5
用户头像

仝键

关注

还未添加个人签名 2018-04-10 加入

还未添加个人简介

评论

发布
暂无评论
ChatGPT编程秀-1:从一个爬虫开始_JavaScript_仝键_InfoQ写作社区