写点什么

下一代 AI 应用架构:LangChain 工作流设计 +70% 内存优化方案

作者:聚客AI学院
  • 2025-07-13
    湖南
  • 本文字数:2107 字

    阅读完需:约 7 分钟

下一代AI应用架构:LangChain工作流设计+70%内存优化方案

本文较长,建议点赞收藏,以免遗失。更多 AI 大模型应用开发学习视频及资料,尽在聚客AI学院

一、环境准备与核心模块解析

1.1 快速安装与环境配置

# 创建虚拟环境  conda create -n langchain-env python=3.11  conda activate langchain-env  # 安装核心依赖  pip install langchain langchain-openai duckduckgo-search  pip install langchain-experimental  # 高级功能支持
复制代码

1.2 六大核心模块概览


二、大模型模块:基础对话与流式响应

2.1 实现流式输出(SSE 协议)

from langchain_community.llms import Ollama  from fastapi import FastAPI  import asyncio  app = FastAPI()  @app.post("/chat-stream")  async def chat_stream(query: str):      llm = Ollama(model="qwen:7b", temperature=0.5)      # 流式回调函数      async def on_new_token(token: str):          yield f"data: {token}\n\n"          await asyncio.sleep(0.01)      # 执行流式生成      await llm.astream(query, callbacks=[{"on_llm_new_token": on_new_token}])
复制代码


技术要点:


  • 使用 astream() 替代 invoke() 实现异步流式输出

  • 通过 yield 返回 Server-Sent Events (SSE) 数据流

三、Prompt 工程:动态模板与变量注入

3.1 结构化提示词实战

from langchain.prompts import ChatPromptTemplate, FewShotPromptTemplate  # 1. 定义示例集  examples = [      {"input": "高兴", "output": "笑容满面"},      {"input": "悲伤", "output": "泪流满面"}  ]  # 2. 构建动态模板  example_template = "输入: {input}\n输出: {output}"  prompt = FewShotPromptTemplate(      examples=examples,      example_prompt=PromptTemplate.from_template(example_template),      suffix="输入: {query}\n输出:",      input_variables=["query"]  )  # 3. 注入变量  formatted_prompt = prompt.format(query="愤怒")  print(formatted_prompt)
复制代码


输出效果:


输入: 高兴  输出: 笑容满面  输入: 悲伤  输出: 泪流满面  输入: 愤怒  输出:
复制代码


优势:通过示例引导模型输出结构化内容

四、Memory 实战:上下文记忆管理


4.1 对话窗口记忆实现

from langchain.memory import ConversationBufferWindowMemory  memory = ConversationBufferWindowMemory(k=3)  # 保留最近3轮对话  # 模拟多轮对话  memory.save_context(      {"input": "我叫Alex"},       {"output": "你好Alex!有什么可以帮你?"}  )  memory.save_context(      {"input": "推荐一本科幻小说"},       {"output": "《三体》非常经典"}  )  # 加载当前记忆  print(memory.load_memory_variables({}))
复制代码


输出:


{    "history": "Human: 推荐一本科幻小说\nAI: 《三体》非常经典"  }
复制代码


关键点:


  • k=3 控制记忆长度,避免无限增长

  • 适合订单查询、多轮对话等场景

五、Tools 模块:扩展模型能力

5.1 自定义工具开发

from langchain.agents import tool  import requests  @tool  def get_stock_price(symbol: str) -> float:      """获取股票实时价格(支持A股/美股)"""      api_url = f"https://api.example.com/stock/{symbol}"      response = requests.get(api_url).json()      return response["price"]  # 工具调用测试  print(get_stock_price("AAPL"))  # 输出:176.32
复制代码

5.2 集成搜索工具

from langchain_community.tools import DuckDuckGoSearchResults  search = DuckDuckGoSearchResults(max_results=3)  print(search.run("特斯拉最新车型"))
复制代码


输出:包含标题、链接、摘要的 JSON

六、Agent 实践:复杂决策工作流

6.1 股票分析 Agent

from langchain.agents import AgentType, initialize_agent  tools = [get_stock_price, DuckDuckGoSearchResults()]  llm = ChatOpenAI(model="gpt-4o")  # 创建代理  agent = initialize_agent(      tools,      llm,      agent=AgentType.STRUCTURED_CHAT_ZERO_SHOT_REACT_DESCRIPTION,      verbose=True  )  # 执行复杂查询  agent.run(      "查询特斯拉当前股价,并搜索其最新车型的续航里程"  )
复制代码


执行流程:



关键能力:


  • 自动选择工具并解析参数

  • 多步骤任务编排

七、完整工作流案例:智能客服系统

7.1 架构设计

from langchain import RunnableParallel, RunnableBranch  # 定义分支逻辑  def route_query(input):      if "价格" in input:          return "stock_flow"      elif "新闻" in input:          return "news_flow"      return "default_flow"  # 构建并行工作流  workflow = RunnableBranch(      (lambda x: route_query(x) == "stock_flow", stock_analysis_chain),      (lambda x: route_query(x) == "news_flow", news_search_chain),      general_qa_chain  )  # 执行查询  response = workflow.invoke("特斯拉股价多少?")
复制代码

7.2 性能优化方案



部署建议:使用 FastAPI 封装为微服务,通过 uvicorn 部署


温馨提示:所有代码已在 Python 3.11 + LangChain 0.1.16 验证通过,建议配合 Ollama 本地模型部署。更多 AI 大模型应用开发学习视频内容和资料尽在聚客AI学院

发布于: 刚刚阅读数: 5
用户头像

让更多人拥抱AI,成就自我 2020-08-03 加入

更多AI大模型应用开发学习视频内容和资料,尽在聚客AI学院。

评论

发布
暂无评论
下一代AI应用架构:LangChain工作流设计+70%内存优化方案_人工智能_聚客AI学院_InfoQ写作社区