写点什么

研究了 2.1 亿个皇堡后,英特尔 BigDL 发现了真相

作者:科技新消息
  • 2022 年 2 月 22 日
  • 本文字数:2572 字

    阅读完需:约 8 分钟

“没说就是零卡。”近日,网络健身博主 @秃顶吴彦祖的金句意外走红,揭开了无数撸铁干饭王的最强自我欺骗套路——只要食物包装上没有注明卡路里,吃了它我就不会发胖!除此之外,“冰可乐没有热量”、“卡路里正正得负”等高频弹幕也常常令人忍俊不禁。实际上,它们并不仅仅是几句戏言,通过 Transformer Cross Transformer (TxT)人工智能推荐系统,汉堡王发现,当人们把高热量食物而非低热量食物加入购物车时,他们更愿意再点一份甜点。也就是说,高热量食物和高热量食物更配哦!另外,TxT 还发现,即使天气很冷,汉堡王的顾客都会点上一份奶昔——而此前人们一般认为,低温天气会使冷饮销量降低。

其实,想要在客户服务中使用人工智能,尤其是快餐推荐,线下快餐门店面临着自己独特的挑战。相比电子商务、搜索引擎等能够在较为充裕的时间内通过大量推理与训练,掌握用户偏好的行业,对于快餐品牌而言,目前仍然没有什么简单的方法可以在瞬间识别客户并检索到他们的档案,因为所有食物推荐都是在线下完成的。此外,在把位置、上下文特征加载到模型之前,还必须对此类数据进行预处理,对于要求快速响应的线下快餐门店来说,这着实是一个不小的难题。

为了应对这些挑战,汉堡王的 Transformer Cross Transformer (TxT)人工智能推荐系统应运而生。该系统采用了所谓的“双”Transformer 架构,既能够学习实时订单序列数据,也能够学习位置、天气和订单行为等特征。TxT 可以利用餐馆中所有可用的数据点,而无需在接单流程开始之前识别顾客。例如,如果顾客在其购物车内加入的第一款商品是奶昔,那么这将影响 TxT 的推荐,这些推荐基于顾客过去购买的商品、当下购买的商品以及商店售卖的商品。这是从模型方面的创新。

另一方面的创新则是统一的大数据处理和模型训练的流水线。目前,大多数企业的做法是建立两个模型,一个模型做大数据处理,一个模型做深度学习,但这一方式效率低下,拷贝文件就占了整个训练 20%以上的时间。而英特尔和汉堡王合作创建的端到端推荐流水线将整个端到端的数据处理和模型训练迁移到基于 BigDL 的统一的平台上,其中包括分布式 Apache Spark 数据处理和在英特尔至强集群上进行的 Apache MXNet 训练,能够让企业直接在现有集群上运行程序,从而大大提高了人工智能的工作效率。

说到这里,你会发现,想要将 AI 部署于现实的应用,其中所面临的一个重大挑战就是针对生产数据集进行数据分析、机器学习和深度学习。生产数据集来源于庞大的分布式数据仓库,而按照传统方法,企业需要设立两个单独的集群,一个用于大数据,导出数据并转移到另外一个深度学习集群进行建模,该集群运行 TensorFlow、PyTorch 等。在这种架构下,首先会产生大量与数据移动相关的开销,其次,它会产生隔离的工作流,从而大大降低开发效率。

而针对上述难题,英特尔 BigDL 2.0 有着清晰的解决思路——提供一个统一的大数据架构,为分布式 AI 提供统一的端到端管道。如此一来,企业就可以在同一个集群、同一个应用内使用 Spark 等处理数据仓库中的数据。在此基础上,人们可以针对内存 Spark Dataframes 直接使用 TensorFlow、PyTorch、OpenVINO 等深度学习 AI 模型。Spark Dataframes 是驻留在内存中的数据集,分布在整个集群上,客户可以透明地在分布式数据集上使用这些 AI 模型、AI 算法——都在一个集群内,更重要的是,一个程序,只需一个工作流。

通过这种方法,英特尔的一些客户,如中国最大的软硬件厂商之一的浪潮,已经成功将研发周期从几个季度缩短到几个月。毋庸置疑,这一显著的进步极大推动了人工智能现实应用的进一步发展。

而在这一成就的背后,是英特尔 BigDL 2.0 所凝结的大量创新。分布式模式运行本地笔记本上的代码。实际上,这一直是很多数据科学家的痛点,他们没法简单地获取一个单节点 PythonNotebook,并在集群上以分布式模式运行,因此,他们通常需要重写代码。

在 Orca 中,英特尔 BigDL 尝试让用户可以把笔记本电脑上运行的 Notebook 部署到分布式集群,云中托管的 Kubernetes 集群、或者 Hadoop 集群。在 Notebook 的一开始,只需调用 Orca 下文中的一个方法,它会告诉程序用户希望运行哪个环境,可以是在本地笔记本电脑上,也可以是本地集群或者 Kubernetes 集群等。只需改变一行代码,这个 Notebook 就可以在本地笔记本电脑上运行,模拟分布式集群规模,在分布式环境中处理大型数据集。

而在更高层级的运用,即基于这些管道开发更垂直的行业解决方案中,用户可以通过 BigDL PPML,在云上创建一个支持大数据和 AI 的可信平台环境。在把数据或者模型转移到云上之前,用户可以使用加密技术保护内容,然后通过 BigDL PPML 直接在加密数据上运行应用软件、模型、Spark 数据分析等,PPML 会在可信环境中读取加密数据,解密并运行相应的应用,同时确保数据的安全性和应用的完整性。在此基础下,BigDL PPML 还可以提供可信的联邦学习(也被称为联合学习)——每一方只拥有一部分信息和功能,但他们可以联合训练一个模型,而不需要向另一方披露数据。通过 SGX 提供的硬件级的安全环境,联邦学习场景中的性能和安全性能够得到有效保证。

此外,BigDL 之上构建的其他垂直行业解决方案还包括 Chronos 项目——一个利用 AutoML 技术构建大规模、分布式时间序列分析的应用框架,可用于时序数据的处理,滑动窗口取样、缩放、重采样、补全,以及自动的特征提取。同时,其中内置了大量时序预测和异常检测模型,用户可以直接使用 TSDataset 构建时序应用进行数据处理,使用对应的模型进行预测或者异常检测。AutoML 技术帮助用户搜索最佳的模型参数以提高模型预测的准确性。 Chronos 同时内置了 Intel 的分类加速工具可以帮助用户取得更好的训练与推理速度;以及 Friesian 项目——用于构建大规模端到端推荐解决方案的应用框架,提供了丰富的内置特征工程操作、推荐算法和参考样例,帮助用户快速构建一个完整的推荐系统来应对离线或者在线的推荐场景。

总而言之,作为一个开源项目,BigDL 能够提供端到端大数据人工智能管道,让用户、科学家和数据工程师更容易构建大规模分布式人工智能解决方案,并使其变得更加容易。它还提供各种垂直框架,如推荐、时间序列分析、隐私保护机制,以帮助用户快速整合他们的 AI 解决方案。或许在并不遥远的未来,伴随着人工智能在人类生活中更加深度的渗透,BigDL 与大数据的结合将为我们揭示更多意想不到的神奇真相。

用户头像

还未添加个人签名 2021.01.07 加入

还未添加个人简介

评论

发布
暂无评论
研究了2.1亿个皇堡后,英特尔BigDL发现了真相