轻松部署本地 DeepSeek,一台酷睿 Ultra 200H 的笔记本就够了
DeepSeek 横空出世,一下子让更多的小伙伴有机会接触到高规格的人工智能助手,但也体验到了无数次“服务器繁忙,请稍后再试”的无奈等待。既然现在 AIPC 概念这么火热,那么有没有一种可能,在轻薄型笔记本上就可以部署 DeepSeek,告别服务器繁忙的烦恼?还别说,包括 DeepSeek 在内的诸多大模型开源的特性足以让其在 AIPC 上运行,特别是蒸馏后的 14B 乃至 32B 大模型,在离线状态畅快玩转人工智能助手也没有压力。
现在不妨让我们以采用酷睿 Ultra200H(ArrowLake-H)的轻薄型笔记本为例,仅凭一台轻薄本,是如何轻松完成 DeepSeek 本地部署的。


轻松配置 DeepSeek
本地大模型部署,少不了先提到 Ollama。Ollama 作为开源的轻量级架构,可以在 AIPC 上轻松地构建、运行和管理大语言模型(LLM)。由于 Ollama 允许完全本地部署,无需依赖外部服务器或者云端,因此在数据保护上更具有隐私性和安全性。

而如果要 Ollama 流畅地在轻薄型笔记本上运行,IPEX-LLM 是一个重要的途径之一。IPEX-LLM 完整称呼是 IntelLLMLibraryforPyTorch,顾名思义,是英特尔开发的一个开源的大语言模型(LLM)加速库,旨在优化英特尔 CPU、GPU、NPU 上的 LLM 推理和微调性能。换而言之,使用英特尔酷睿 Ultra 平台的 PC 会更占据优势。
这时候,再通过 IPEX-LLMOllama 加载 DeepSeek,安装 IPEX-LLMOllama 的方式非常简单,安装步骤只有三步,下载解压,启动 Ollama 服务,启动 Ollama,大功告成。

在魔搭社区 ipexllm/ollama-ipex-llm 就能看到专门的 IPEX-LLMOllama 安装页面,这套基于 IPEX-LLM 的 Ollama 英特尔优化版已经针对 11 代到 14 代酷睿,酷睿 Ultra 系列,以及英特尔 ArcA 系列和 B 系列 GPU 优化。

因此在正式安装之前,笔者建议前往英特尔官网更新一下对应的驱动,比如酷睿 Ultra200H 系列的 iGPU,或者刚发布没多久的英特尔 ArcB580,都需要最新驱动的支持。

言归正传。按照教程提示,将下载好后的 Ollama 解压到一个文件夹中,运行文件夹中的 start-ollama.bat 启动 OllamaServe,弹出的窗口不要关闭,通过 cmd 命令提示符窗口在解压缩的文件夹中运行 Ollama 即可。执行命令如下:
.\ollamarundeepseek-r1:7b
这时候就会看到 Ollama 开始下载对应的 DeepSeek 模型,完成后,即可进入对话模式。

纯文字界面当然还差点意思,后续我们还可以通过 ChatBoxAI 客户端,或者 Edge 浏览器插件,安装之后,客户端或者插件就会自动检测到之前安装的 OllamaServe,不需要更多的设置,就能获得更直观的交流界面,对话的方式也能帮助你获得更多与 DeepSeek 交流的灵感。


一步到位的 Flowy
如果你觉得前面通过 Ollama-IPEX-LLM 三步走的方式仍然麻烦,这里还有一招更厉害的,即通过 FlowyAIPC 一步到位获得 DeepSeek。这里只需要进入 FlowyAIPC 官网,下载安装程序,登陆,就可以一气呵成获得一套完整的人工智能对话界面。

最新版的 Flowy 已经集成 DeepSeek-V3、DeepSeek-R1、GLM-4-Flash、豆包模型。

在模型市场本地模型中,你会发现 Flowy 已经帮你全部一口气部署好了。


性能如何?
ArrowLake-H 酷睿 Ultra200H 系列则是定位主流标压笔记本,使用的 LionCoveP-Core 和 SkymontE-Core,相对上一代 MeteorLake-H 在单线程和多线程性能上提升 15%,并配备了 XeiGPU,除了最入门的版本之外,剩下的型号均配备 Xe-LPG 核显。由于酷睿 Ultra200H 内置了 11TOPS 的 NPU,配合 iGPU 的 77TOPS 和 CPU 的 11TOPS,可以达到 99TOPS 的 AI 性能。
其中旗舰版本的酷睿 Ultra9258H,拥有 6 个 P-Core,8 个 E-Core 和 2 个 LPE-Core,总共拥有 16 个线程,得益于架构和 IPC 升级,在相同能耗的前提下性能是有所提升,同时也能让轻薄型笔记本在获得足够性能的同时,续航变得更长。在实际使用中,酷睿 Ultra200H 的轻薄本续航明显优于酷睿 Ultra100H。

回到主题。得益于酷睿 Ultra200H 对 DDR5-6400 和 LPDDR5x-8400 内存的支持,酷睿 Ultra200H 轻薄本不仅默认使用的内存频率高,容量也动辄 32GB,分给 Xe-LPG 核显调用的内存也更多,用来运行 DeepSeek-R1:8B 模型已经很轻松。
这里以酷睿 Ultra7255H 核显 Arc140T 为例,通过 DeepSeek-R1:8B 模型描述“什么是 AIPC”。这时候核显计算利用率达到 100%,生成速度大概在 15tokens/s 到 20tokens/s 之间,在体感上已经与我们打字对话的速度上差不多了。
同样,如果运行 Moonlight-16B-A3B 模型进行数学公式计算或者诗词生成,生成速度也可以做到 42token/s 上下,比两周前的 19token/s 有了跨越式的进步,由此可见酷睿 Ultra200H 运行大模型的潜力。

写在最后:一步到位的 AI 体验
从体验来看,采用酷睿 Ultra200H 的轻薄型笔记本已经能够很好的离线运行 DeepSeek-R1:8B 模型,比如飞机上,信号不好高铁路段,笔记本离线就能充当起不错的助手作用。原本需要联网或者高性能台式机上才能实现的 AI 生成工作,现在一台基于 ArrowLake-H 的酷睿 Ultra200H 轻薄本就能完成。
原本在线服务总是繁忙的 DeepSeek-R1,现在仅通过简单的三步配置,就能在酷睿 Ultra200H 轻薄本上完成部署。英特尔早已搭建好的 Ollama+IPEX-LLM 环境,在这个应用场景中立了大功。

这是一套由英特尔搭建,基于酷睿 Ultra 系列生态环境,通过诸如 FlowyAIPC 助手这样的便捷应用,可以一键部署 7B 到 14B 的 DeepSeek 本地大模型,并且功能非常丰富。现在酷睿 Ultra200H 轻薄本配合国补价格已经可以来到 5000 元价位档,这让原本硬件和使用技巧都要求颇高的大模型应用,现在变得唾手可得。如果你想在近期获得一个高智商且能离线运行的 AI 助手,购置一款酷睿 Ultra200H 轻薄本就是一个很不错的解决方案。
评论