写点什么

结合 LangChain 实现网页数据爬取

  • 2024-07-18
    江西
  • 本文字数:871 字

    阅读完需:约 3 分钟

LangChain 非常强大的一点就是封装了非常多强大的工具可以直接使用。降低了使用者的学习成本。比如数据网页爬取


在其官方文档-网页爬取中,也有非常好的示例。


获取更多技术资料,请点击!

应用场景

  • 信息爬取。

  • RAG 信息检索。

实践应用

需求说明

  • 从 ceshiren 网站中获取每个帖子的名称以及其对应的 url 信息。

  • ceshiren 论坛地址:https://ceshiren.com/

实现思路

对应源码


# 定义大模型from langchain_openai import ChatOpenAIllm = ChatOpenAI(temperature=0, model="gpt-3.5-turbo-0613")
# 定义提取方法def extract(content: str, schema: dict): from langchain.chains import create_extraction_chain return create_extraction_chain(schema=schema, llm=llm).invoke(content)
import pprintfrom langchain_text_splitters import RecursiveCharacterTextSplitterdef scrape_with_playwright(urls, schema): # 加载数据 loader = AsyncChromiumLoader(urls) docs = loader.load() # 数据转换 bs_transformer = BeautifulSoupTransformer() # 提取其中的span标签 docs_transformed = bs_transformer.transform_documents( docs, tags_to_extract=["span"] ) # 数据切分 splitter = RecursiveCharacterTextSplitter.from_tiktoken_encoder( chunk_size=1000, chunk_overlap=0) splits = splitter.split_documents(docs_transformed) # 因为数据量太大,输入第一片数据使用,传入使用的架构 extracted_content = extract(schema=schema, content=splits[0].page_content) pprint.pprint(extracted_content) return extracted_content
urls = ["https://ceshiren.com/"]schema = { "properties": { "title": {"type": "string"}, "url": {"type": "string"}, }, "required": ["title", "url"],}extracted_content = scrape_with_playwright(urls, schema=schema)
复制代码

总结

  1. 了解网页爬取的实现思路以及相关技术。

  2. 通过 LangChain 实现爬取测试人网页的标题和 url。

用户头像

社区:ceshiren.com 微信:ceshiren2021 2019-10-23 加入

微信公众号:霍格沃兹测试开发 提供性能测试、自动化测试、测试开发等资料,实时更新一线互联网大厂测试岗位内推需求,共享测试行业动态及资讯,更可零距离接触众多业内大佬。

评论

发布
暂无评论
结合LangChain实现网页数据爬取_霍格沃兹测试开发学社_InfoQ写作社区