Amazon SageMaker: 拓展机器学习边界,塑造未来创新趋势
授权说明:本篇文章授权活动官方亚马逊云科技文章转发、改写权,包括不限于在 亚马逊云科技开发者社区, 知乎,自媒体平台,第三方开发者媒体等亚马逊云科技官方渠道。
近期在 re:Invent 2023 大会上,亚马逊云科技发布了一组引人注目的新功能,重点强调了生成式人工智能在塑造人工智能未来方向上的引领地位。其中,Amazon SageMaker 作为一款全面托管的机器学习服务,在其新功能的引领下,能够为用户提供更高效、更强大的机器学习工具。 我将在后文对 Amazon SageMaker 的产品进行使用体验,以及对其进行全面的总结。
亚马逊云科技开发者社区为开发者们提供全球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训视频、活动与竞赛等。帮助中国开发者对接世界最前沿技术,观点,和项目,并将中国优秀开发者或技术推荐给全球云社区。如果你还没有关注/收藏,看到这里请一定不要匆匆划过,点这里让它成为你的技术宝库!
一、 Amazon SageMaker: 高效、便捷的机器学习全方位解决方案
Amazon SageMaker 以其全面而先进的功能和解决方案,为用户提供了更多可能性,使机器学习的构建、训练和部署过程更加便捷高效。SageMaker 持续推动着机器学习技术的进步,也为用户提供了更为出色的工具和平台。这一系列优势共同构成了 SageMaker 在机器学习领域的引领地位。
通过专注于创新,提供面向数据科学家的 IDE 和无代码界面,Amazon SageMaker 能够让开发者轻松利用机器学习处理结构化和非结构化数据。其优化基础设施将培训时间从几小时缩短到几分钟,专用工具提高团队生产力多达 10 倍。此外,自动执行和标准化 MLOps 实践和治理,支持组织中的透明度和可审核性。
二、SageMaker 新功能:突破创新之路
Amazon SageMaker 作为全面托管的机器学习服务,为我们提供了无需关注底层复杂性的机会,将重心集中在模型的构建和优化上。通过 SageMaker,我们可以轻松构建和训练机器学习模型,并将其直接部署到生产就绪的托管环境中。这一服务不仅提供了集成的 Jupyter 编写 Notebook 实例,方便访问数据源进行探索和分析,还支持常见机器学习算法,为分布式环境中的高效数据处理提供了优化的解决方案。
1. SageMaker HyperPod 和 Inference:强大的训练与部署基础设施
亚马逊云科技最新发布的 SageMaker HyperPod 和 Inference 功能展现了其对机器学习领域的持续创新。SageMaker HyperPod 是为大规模分布式训练而设计的创新基础设施,旨在解决训练模型所面临的复杂性和高成本挑战。SageMaker HyperPod 通过预配置 SageMaker 的分布式训练库,自动将训练工作负载分发到数千个加速器中,实现并行处理以提高模型性能。
而 SageMaker Inference 则致力于降低模型部署的成本和延迟,满足组织对性能优化的需求。用户可以单独控制每个模型的扩展策略,以适应不同的模型使用模式,同时优化基础架构成本。通过智能路由推理请求,SageMaker 主动监控处理请求的实例,并将请求平均路由到可用的实例。
2. SageMaker Clarify 和 Canvas:负责任 AI 的评估与直观工作流
SageMaker Clarify 和 Canvas 功能的引入进一步推动了机器学习应用的发展。SageMaker Clarify 为用户提供了一种负责任使用 AI 的便捷方式,快速评估和选择基础模型。通过支持用户有效评估模型,确保其符合负责任的 AI 标准。用户可以轻松提交模型进行评估,也可以通过 SageMaker JumpStart 选择适用于其用例的模型,同时获取详细的报告,为用户提供基于性能标准的快速比较、评估和选择最佳模型的便利。
新的 Amazon SageMaker Canvas 增强功能使用户更轻松、更快速地将生成式 AI 集成到其工作流程中。Canvas 支持用户在无代码环境中构建 ML 模型并生成预测,无需编写任何代码。此次更新扩展了 Canvas 的即用型功能,使用户能够更直观地准备数据,通过自然语言指令解决常见的数据问题。
三、功能测评体验
首先用户在亚马逊云科技官网完成账号登录,没有账号的需要先进行注册,登录之后来到个人控制台,在搜索栏搜索 Amazon SageMaker 服务:
进入到 Amazon SageMaker 服务界面之后,在左侧导航栏找到笔记本模块,点击笔记本实例,并进行创建:
。进入创建界面后,可以根据开发需要进行配置信息选择,同时也可以新的 IAM 角色,也可以使用已经存在的角色。
稍等片刻,等待笔记本实例状态变为 InService,即表示实例可用。
为了测试使用,我们在顶部搜索栏搜素 S3 存储桶服务,然后创建通用存储桶,配置完信息之后,等待存储桶的创建完毕,之后我们可以进入桶内部进行相关操作。
进入存储桶中之后,我们可以通过上传功能将本地的资源进行上传到 S3 存储桶中,如图,我将本地的一些图片资源传输到我创建的存储桶中。
回到 Amazon SageMaker 界面,进入 Jupyter 界面:
进入界面之后,选择图中所示功能进行相关操作:
然后输入如下 python 代码:注意,需要将其中的 S3 存储桶对应的信息切换为刚才咱们创建的 S3 通用存储桶信息才可以生效,在这一块,我贴出代码:
标红的一处需要将对应信息切换成我们刚才创建的 S3 存储桶对应信息。
回到 Amazon SageMaker 界面,我们选择 Ground Truth 模块中的贴标作业,然后创建标准作业。
在创建的时候,选择我们刚才创建的 S3 存储桶,然后根据开发需求进行相关信息配置,配置完毕之后,开始创建。
在数据设置中,将 S3 存储桶可以设置成我们刚才创建好的,同时数据类型选择图像, IAM 角色选择创建新角色或使用早前 Jupyter 笔记本的对应数值:
在任务设置中,选择图像作为任务类型,选择图像分类(单个标签)作为任务类别,然后点击下一步。
标注作业创建完毕之后,可以查看相关的信息。
核查标注作业结果也至关重要,可评估标记质量和确定是否需要优化说明和数据。回到我们的 SageMaker 控制台,选择 Labeling jobs 标注作业,然后选择我们刚才创建好的作业,然后就可以进行对所选作业结果进行评估。
标注作业创建成功之后,我们选择左侧功能栏中的训练模块,开始根据需求进行作业训练,以便达到想要的结果。
然后训练作业,点击创建训练作业并且去配置相关训练参数,这一块信息配置可以根据开发需要进行相关设置。
完成训练作业,当我们看到作业状态变更为 success,即表示作业训练完成。
四、体验感悟和总结
作为一个机器学习爱好者,我对 SageMaker HyperPod 和 Inference 功能的引入感到非常激动。HyperPod 作为一项创新性基础设施,解决了我在大规模分布式训练中所面临的挑战。以前,使用 GPU 和 Trainium 计算实例进行训练时,我常常碰到数据量增加、模型大小膨胀以及训练时间延长的问题。
HyperPod 的出现改变了这一切,通过自动分发训练工作负载到数千个加速器中,显著提高了我的模型性能。同时,它的定期保存检查点功能确保了在硬件故障发生时的平稳继续训练,省去了我繁琐的手动管理过程。现在,我能够更加高效地进行数周甚至数月的训练,为我的模型构建和优化提供了更多的便利。
而 SageMaker Inference 则是解决模型部署过程中成本和延迟问题的救星。通过支持将多个模型部署到同一实例,Inference 平均降低了部署成本约 50%。这让我可以更灵活地控制每个模型的扩展策略,更好地适应不同的模型使用模式,同时有效地优化基础架构成本。通过智能路由推理请求,SageMaker 还能够主动监控实例处理请求的情况,将请求平均路由到可用的实例,降低了推理延迟约 20%。
这一系列创新性功能的整合不仅在硬件基础设施的优化上取得了显著进展,同时也为我提供了更加便捷、高效的机器学习工作流。整体来说,Amazon SageMaker 新推出的功能为用户在 AI 领域的探索之路提供了更为强大的支持,让用户更加期待未来在机器学习领域的深入应用。
评论