写点什么

如何构建 AI 智能体(2025 完全指南)

作者:码语者
  • 2025-11-05
    上海
  • 本文字数:6123 字

    阅读完需:约 20 分钟

如何构建 AI 智能体(2025 完全指南)

🎯内容提要

AI 智能体是能够自主决策并采取行动以完成任务的系统。与聊天机器人不同,它们不遵循预定义的工作流程——它们会进行推理、规划、使用工具并动态适应。本指南将通过真实示例和代码,向你具体展示如何使用如 LangChain 和 AutoGen 等现代框架来构建可工作的智能体。



2025 年正被誉为"AI 智能体之年",其在企业中的应用正在加速。微软 CEO 萨提亚·纳德拉称其为一根本性转变:"请将智能体视为 AI 时代的应用。"但问题在于——大多数教程向你展示的都是伪装成智能体的聊天机器人,或者更糟的是,那些在演示中有效但在生产环境中失败的复杂系统。在构建了多个生产级智能体并分析了最新框架之后,我将确切地向你展示如何创建真正有效的 AI 智能体。不掺水分,不搞噱头——只有由真实代码和经过验证的架构支持的实践实现细节。

AI 智能体与聊天机器人有何不同?

让我们立刻澄清这一点。智能体没有预定义的工作流程——它不仅仅是遵循第一步、第二步、第三步。相反,它会在不确定的步骤数量中动态做出决策,并根据需要进行调整。



真实示例: 要求一个聊天机器人"预订下周二飞往纽约的航班",它要么会失败,要么会向你询问更多信息。而一个智能体会检查你的日历、搜索航班、比较价格,甚至处理预订——根据发现的情况调整其方法。

每个 AI 智能体所需的 5 个核心组件

基于广泛的研究和生产部署,每个可工作的 AI 智能体都需要以下五个组件:

1. 大语言模型 - 大脑

LLM 充当推理引擎。在 2025 年,你有多种优秀选择(参见我们的详细比较):


  • Claude 4 Opus: 最适合复杂推理和扩展思考

  • GPT-4.1: 在编码和工具使用方面表现出色,拥有 100 万令牌上下文

  • Gemini 2.5 Pro: 强大的多模态能力


💡 专业提示: 不要默认使用最昂贵的模型。对于智能体任务,每百万令牌 2 美元的 GPT-4.1-mini 通常表现不俗,尤其是在结合良好提示的情况下。

2. 记忆系统 - 上下文

由于 LLM 默认是无状态的,你需要管理它们的历史和上下文。现代框架提供几种记忆类型:


# 示例:LangChain 记忆实现from langchain.memory import ConversationSummaryBufferMemorymemory = ConversationSummaryBufferMemory(    llm=llm,    max_token_limit=2000,    return_messages=True)# 智能体现在可以跨多次交互进行记忆
复制代码


记忆类型:


  • 缓冲区记忆: 存储原始对话历史

  • 摘要记忆: 压缩长对话

  • 实体记忆: 跟踪特定实体及其属性

  • 知识图谱记忆: 构建概念间的关系

3. 工具 - 双手

工具允许你的智能体与外部世界交互。正确的工具配置与提示工程同等重要。


# 示例:定义一个用于网络搜索的工具from langchain.tools import Tooldef search_web(query: str) -> str:    """搜索网络以获取最新信息。"""    # 此处为实现代码    return search_resultsweb_search_tool = Tool(    name="WebSearch",    func=search_web,    description="搜索网络以获取最新信息。当你需要最新数据时使用。")
复制代码


⚠️ 关键点: 你的工具描述直接影响智能体性能。要具体说明何时以及如何使用每个工具。模糊的描述会导致工具选择不当。

4. 规划系统 - 策略

智能体必须能够提前规划和思考。2025 年最成功的方法是 ReAct 范式(推理 + 行动)


# ReAct 风格智能体循环while not task_complete:    # 1. 观察当前状态    observation = get_current_state()       # 2. 思考下一步行动    thought = llm.think(f"给定 {observation},我下一步该做什么?")       # 3. 决定行动    action = llm.decide_action(thought, available_tools)       # 4. 执行行动    result = execute_action(action)       # 5. 反思结果    reflection = llm.reflect(result)       # 更新状态并继续
复制代码

5. 执行循环 - 引擎

执行循环负责协调一切。现代框架以不同方式处理此问题:


  • LangChain/LangGraph: 使用基于图的执行模型

  • AutoGen: 实现事件驱动的参与者模型

  • CrewAI: 专注于基于角色的智能体协作

逐步指南:构建你的第一个可工作智能体

让我们构建一个能够研究主题并撰写报告的实用智能体。此示例展示了所有五个核心组件的实际运作。

步骤 1:设置环境

# 安装所需的包pip install langchain langchain-openai tavily-python# 设置环境变量export OPENAI_API_KEY="你的密钥"export TAVILY_API_KEY="你的密钥"
复制代码

步骤 2:初始化核心组件

from langchain_openai import ChatOpenAIfrom langchain.agents import create_react_agent, AgentExecutorfrom langchain.memory import ConversationBufferMemoryfrom langchain_community.tools.tavily_search import TavilySearchResultsfrom langchain.tools import Toolfrom langchain import hub# 1. 初始化 LLMllm = ChatOpenAI(model="gpt-4.1-mini", temperature=0)# 2. 设置记忆memory = ConversationBufferMemory(    memory_key="chat_history",    return_messages=True)# 3. 配置工具search = TavilySearchResults(max_results=5)tools = [    Tool(        name="Search",        func=search.run,        description="搜索关于任何主题的最新信息。返回相关结果。"    )]# 4. 加载 ReAct 提示(处理规划)prompt = hub.pull("hwchase17/react")
复制代码

步骤 3:创建智能体

# 创建 ReAct 智能体agent = create_react_agent(    llm=llm,    tools=tools,    prompt=prompt)# 5. 设置执行循环agent_executor = AgentExecutor(    agent=agent,    tools=tools,    memory=memory,    verbose=True,  # 查看智能体的思考过程    handle_parsing_errors=True,    max_iterations=10  # 防止无限循环)
复制代码

步骤 4:运行你的智能体

# 示例:研究并报告 AI 智能体result = agent_executor.invoke({    "input": "研究 2025 年 7 月 AI 智能体的最新发展,并撰写一份简要报告,重点介绍前 3 大趋势。"})print(result["output"])
复制代码


成功关键: 该智能体将自主搜索多次,综合信息,并生成连贯的报告。它并非遵循脚本——而是根据发现的内容动态决定搜索什么。

真正提升性能的高级技巧

在分析了数千次智能体交互后,以下是真正能提高智能体性能的技巧:

1. 问题分解优于角色扮演

  • 无效的方法: 角色提示(例如,"你是一位专家研究员……")对准确性影响甚微或没有影响。

  • 有效的方法: 要求智能体将问题分解为子任务:


decomposition_prompt = """    将此任务分解为更小的步骤:      1. 首先,识别关键组成部分      2. 然后,分别处理每个组成部分      3. 最后,综合结果    任务:{task}"""
复制代码

2. 自我批评与反思

添加自我批评步骤能显著提高输出质量:


reflection_prompt = """审查你之前的回应并识别:1. 任何逻辑错误或不一致之处2. 遗漏的重要信息3. 可以更清晰的领域之前的回应:{response}"""
复制代码

3. 上下文重于指令

上下文的重要性被严重低估。仅仅提供更多相关的背景信息,比复杂的提示技术更能提高性能:


# 效果较差prompt = "写一份关于 AI 智能体的报告"# 效果更好prompt = """写一份关于 AI 智能体的报告。上下文:AI 智能体是可以规划并执行任务的自主系统。它们与聊天机器人的不同之处在于做出动态决策而非遵循脚本。关键框架包括 LangChain、AutoGen 和 CrewAI。该报告面向熟悉 AI 概念的技术读者。"""
复制代码

导致 AI 智能体失效的常见错误

以下是我反复看到的常见错误:

1. 无限循环且无限制

始终设置 max_iterations: 智能体可能陷入循环。设置合理的限制并实现超时处理。

2. 工具描述不清

# 差:描述模糊Tool(name="search", description="搜索东西")# 好:包含用例的具体描述Tool(    name="WebSearch",    description="搜索网络以获取最新信息。用于:近期新闻、时事、事实数据、公司信息。返回 5 个最相关的结果。")
复制代码

3. 忽略错误状态

智能体会遇到错误。要为它们做好计划:


try:    result = agent_executor.invoke({"input": user_query})except Exception as e:    # 不要只是失败 - 帮助智能体恢复    recovery_prompt = f"先前的操作因错误而失败:{e}。请尝试另一种方法。"    result = agent_executor.invoke({"input": recovery_prompt})
复制代码

4. 忽视令牌成本

智能体可能快速消耗令牌。需监控并优化:


  • 尽可能使用较小的模型(GPT-4.1-mini vs GPT-4.1)

  • 对长对话实施摘要记忆

  • 缓存工具结果以避免重复调用

生产就绪的智能体架构

对于生产系统,根据你的需求选择架构:


LangChain + LangGraph 架构

LangChain 已发展成为单智能体系统的事实标准。2025 年 LangGraph 的加入带来了复杂的状态管理:


from langgraph.graph import StateGraph, Statefrom typing import TypedDictclass AgentState(TypedDict):    messages: list    current_task: str    completed_tasks: list# 定义图workflow = StateGraph(AgentState)# 为不同的智能体能力添加节点workflow.add_node("researcher", research_node)workflow.add_node("writer", writing_node)workflow.add_node("reviewer", review_node)# 定义流程workflow.add_edge("researcher", "writer")workflow.add_edge("writer", "reviewer")
复制代码

AutoGen 多智能体架构

微软的 AutoGen 在你需要多个专业智能体协同工作时表现出色:


import autogen# 定义专业智能体researcher = autogen.AssistantAgent(    name="Researcher",    system_message="你是一名研究专家。查找并验证信息。")writer = autogen.AssistantAgent(    name="Writer",    system_message="你是一名技术文档工程师。创建清晰、准确的内容。")critic = autogen.AssistantAgent(    name="Critic",    system_message="你审查工作的准确性和清晰度。要有建设性但要彻底。")
复制代码

可工作的 AI 智能体真实案例

让我们看看当今在生产环境中实际使用的智能体(查看更多真实可工作的 AI 智能体示例):

1. 客户服务智能体(电子商务)

该智能体自主处理完整的客户交互(在我们的客户服务自动化指南中了解更多):


  • 在数据库中检查订单状态

  • 处理退货和退款

  • 更新送货地址

  • 将复杂问题升级给人工处理

  • 关键创新: 根据客户需求动态选择使用多个专业工具(数据库查询、支付处理、运输 API)。

2. 代码审查智能体(软件开发)

自动审查拉取请求:


  • 分析代码变更

  • 运行安全扫描

  • 提出改进建议

  • 检查是否符合编码标准

3. 研究助手智能体(内容创作)

进行综合研究:


  • 搜索多个来源

  • 事实核查信息

  • 综合发现

  • 生成引用

AI 智能体的安全考量

⚠️ 关键警告: 基于智能体的 AI 系统比聊天机器人更容易受到攻击。随着智能体开始预订航班、发送邮件和执行代码,风险呈指数级增长。

基本安全措施

  • 工具权限: 为每个工具实施细粒度权限

  • 操作验证: 对不可逆操作要求确认

  • 提示注入防御: 验证并清理所有输入

  • 审计日志: 记录每个操作以确保可追溯性

  • 人工监督: 维持紧急停止开关和审批工作流


# 示例:安全的工具执行def execute_with_permission(action, requires_approval=True):    if requires_approval and action.risk_level == "high":        approval = request_human_approval(action)        if not approval:            return "操作被安全策略拒绝"       # 记录操作    audit_log.record(action, user, timestamp)       # 带超时执行    return execute_with_timeout(action, timeout=30)
复制代码

测试和调试 AI 智能体

测试智能体需要不同于传统软件的方法:

1. 基于场景的测试

# 测试各种场景test_scenarios = [    {        "input": "预订明天飞往纽约的航班",        "expected_tools": ["calendar_check", "flight_search", "price_compare"],        "expected_outcome": "flight_options"    },    {        "input": "取消我的订阅并退还上个月的费用",        "expected_tools": ["account_lookup", "subscription_cancel", "refund_process"],        "expected_outcome": "confirmation"    }]for scenario in test_scenarios:    result = agent_executor.invoke({"input": scenario["input"]})    assert all(tool in result["tool_calls"] for tool in scenario["expected_tools"])
复制代码

2. 调试工具

启用详细日志记录以查看智能体的决策过程:


agent_executor = AgentExecutor(    agent=agent,    tools=tools,    verbose=True,  # 显示思考过程    return_intermediate_steps=True  # 返回所有步骤)
复制代码

5 个即用型智能体系统提示

以下是为常见智能体类型准备的、经过实战检验的系统提示:

1. 研究智能体

你是一个可以访问网络搜索和文档分析工具的研究智能体。对于每个研究任务:


  1. 将主题分解为关键问题

  2. 从多个来源搜索信息

  3. 通过交叉引用验证事实

  4. 将发现综合成连贯的摘要

  5. 为所有主张包含引用始终优先考虑近期信息和权威来源。

2. 客户支持智能体

你是一个客户支持智能体,帮助用户处理他们的账户和订单。


可用工具: order_lookup, refund_process, ticket_create, knowledge_base_search 指南:


  • 在访问账户信息前始终验证客户身份

  • 在升级前搜索知识库

  • 要有同理心并以解决方案为导向

  • 遇到以下情况升级至人工支持:法律问题、威胁或超出你工具范围的请求


切勿对你无法直接实现的功能做出承诺。

3. 数据分析智能体

你是一个专长于商业智能的数据分析智能体。对于每个分析请求:


  1. 澄清业务问题

  2. 识别相关数据源

  3. 使用适当的统计方法执行分析

  4. 可视化关键发现

  5. 提供可操作的建议


始终在你的分析中注明数据局限性和置信水平。

4. 代码助手智能体

你是一个可以访问文件系统和执行工具的代码助手智能体。能力:


  • 阅读和分析代码

  • 提出改进建议

  • 实施更改

  • 运行测试

  • 调试问题


切勿:


  • 未经明确许可删除文件

  • 修改系统文件

  • 执行可能有害的命令

  • 在代码中存储凭证


在进行重大更改前始终创建备份。

5. 内容创作智能体

你是一个专注于病毒式内容策略的内容创作智能体。


流程:


  1. 研究指定领域的趋势话题

  2. 分析成功的内容模式

  3. 生成多个内容创意

  4. 创建带有吸引点的详细内容

  5. 建议分发策略


关注真实性和价值,而非点击诱饵。

未来:AI 智能体的下一步是什么?

基于当前轨迹和内部知识,以下是将要发生的事情:

近期(未来 6 个月)

  • 视觉智能体: 能够查看并与 UI 交互的智能体

  • 语音优先智能体: 自然对话取代文本界面

  • 智能体市场: 针对特定行业的预构建智能体

  • 改进的安全性: 内置沙盒和权限系统

中期(2026 年)

  • 物理世界智能体: 与机器人技术集成

  • 监管框架: 为智能体行为设定法律边界

  • 智能体间经济: 智能体雇佣其他智能体

  • 个人 AI 操作系统: 管理整个数字生活的智能体

关键要点

构建真正有效的 AI 智能体需要理解五个核心组件:用于推理的 LLM、用于上下文的记忆、用于行动的工具、用于策略的规划以及一个健壮的执行循环。与聊天机器人的关键区别在于自主决策和动态适应。从经过验证的框架开始,如用于单智能体的 LangChain 或用于多智能体系统的 AutoGen。专注于清晰的工具描述、适当的错误处理和全面的测试。最重要的是,记住上下文和问题分解比复杂的提示技巧更重要。


AI 智能体革命才刚刚开始。虽然炒作是真实的,但机遇也是真实的。通过遵循本指南并避免常见陷阱,你今天就可以构建出能够交付真正价值的智能体,同时为即将到来的自主未来做好准备。




【注】本文译自:How to Build AI Agents (Complete 2025 Guide) - Superprompt.com

发布于: 20 分钟前阅读数: 7
用户头像

码语者

关注

分享程序人生。 2019-07-04 加入

“码”界老兵,分享程序人生。

评论

发布
暂无评论
如何构建 AI 智能体(2025 完全指南)_AI智能体_码语者_InfoQ写作社区