基于 vLLM 与 AWS Trainium 的冷启动推荐优化
冷启动问题的本质
推荐系统中的冷启动不仅涉及新用户或新物品问题,更核心的是系统初始化阶段完全缺乏个性化信号。当新用户首次访问或新内容上线时,由于缺乏行为历史数据,系统只能提供泛化推荐,导致点击率和转化率下降。传统解决方案(协同过滤、矩阵分解或热门列表)难以弥合信号缺口。
技术方案架构
我们构建的解决方案包含以下核心组件:
vLLM 推理框架:在 Amazon EC2 Trainium 芯片上运行,通过 NeuronX Distributed(NxD)实现大模型分片
AWS 深度学习容器(DLC):集成 Neuron SDK,预装优化的 PyTorch 模块
多阶段处理流程:
使用 LLM 生成结构化兴趣扩展(示例 prompt):
T5 编码器生成嵌入向量
FAISS 实现近似最近邻搜索
关键性能发现
通过对比不同规模模型(Llama 1B/8B/70B)与编码器(T5-base/large/XL)组合,发现:
嵌入空间分布:8B 模型配合 T5-large 编码器在 FAISS 距离指标上表现最佳(平均距离 0.5)
成本效益比:当 tensor_parallel_size=16 时,延迟降低 74%至 650ms,达到最佳性价比
推荐重叠率:T5-base 与 T5-large 在 Top5 推荐中共享 40%内容,而 T5-XL 引入更多新颖结果
生产部署方案
参考实现包含:
将 Neuron 优化的模型打包为 DLC 镜像
在 Amazon EKS 上部署并配置自动扩缩容
通过以下代码实现编码与检索:
优化建议
实验表明:
更大模型不一定带来更好效果,8B LLM+T5-large 组合性价比最高
当 tensor_parallel_size 超过 16 时,每提升 1%性能需要付出双倍成本
通过热力图分析可平衡推荐结果的"一致性"与"新颖性"更多精彩内容 请关注我的个人公众号 公众号(办公 AI 智能小助手)公众号二维码
- 办公AI智能小助手
评论