四步搞定国赛!快速入门大小模型融合的 AI 产品开发
前不久,2024 中国大学生服务外包创新创业大赛正式启动!作为中国高等教育学会“全国普通高校学科竞赛排行榜”竞赛,飞桨赛道已经吸引了超过 200 位选手报名参赛。
本文旨在助力“A01-基于文心大模型智能阅卷平台设计”赛道选手,更快地明确产品设计与开发的路径,并用好飞桨星河社区各类工具与资源。
往何处去:结合赛题背景,定位自己的产品方向
看到赛题中的“阅卷”二字,想必选手们首先会有三个疑问:
需要评阅什么学科的试卷?
需要评阅什么样的试卷?
需要评出什么结果?
图 1:定位选题空间
由于赛题并没有指定具体的评阅对象,给选手们发散空间则比较宽裕。那么,在选题的过程中,选手们就可以从难度和对 AI 的需求两个角度着手,根据自己的偏好和团队的实力,在客观分析出来的一个难度空间中(如图 1),定位好自己的选题设计。
拆解赛题任务:抽丝剥茧,核心搞定 4 大关键模块
不难发现,本赛题融入了大模型与小模型,选手们要完成的作品,是需要打通感知、理解与生成全流程,是一道能力考核全面但又场景聚焦的题目。
图 2:拆解赛题任务
面对赛题众多的任务点(如图 2 左侧),选手们或许有一些迷茫,不用担心!当我们初步进行任务的聚类,会发现:任务的核心在于四大模块的设计。
在 AI 小模型、AI 大模型和网站产品开发上,飞桨星河社区都提供了一站式的工具,这些工具串联起来的 pipline,能够快速帮大家又快又标准地完成模块能力的建设工作。
以终为始:看赛题背景,看技术要求
当选手有了大致选题方向,踌躇满志之时,接下来,则需要对照赛题任务要求,确定工作发力点。
图 3:赛题要求拆解
在视觉技术和深度学习框架要求上,飞桨星河社区会为本次大赛提供算法模型验证平台,考虑到试卷的手写字体是通用型的识别需求,因此本次算法部分的任务提交与飞桨模型评测,仅围绕手写字。
在多格式和速度等要求上,考虑到选手选择的学科和内容并不一样,选手除了基于上述手写字的算法验证要求,还可以自行选择数据集,基于更多学科、更多试卷类型和更多评阅材料中样本的特点,进行能力效果的举证。
在评阅结果可视化与数据管理要求上,选手可以针对用户及场景的需求,设计合理的可视化体验与数据管理逻辑,使产品更加可用、更加成熟。
串联产品整体逻辑:为何出发,如何抵达,结果怎样
在产品开发的末尾中,如何面向最终的竞赛答辩,有一套完整的价值叙事逻辑,是至关重要的。要是想在答辩现场游刃有余,必须直面以下这些问题,提前“汗流浃背”!
图 4:整体答辩逻辑
产品定位问题:为什么选择这样的评阅对象作为研究方向呢?有没有经过各类试卷样本的比较分析?有没有对教师需求和评阅现场有精准分析?有没有了解目前市面上还有哪些竞品?……
工作量问题:工作量够不够?有哪些独特创新和技术壁垒呢?有没有自己采集过样本和数据,还是用成熟模型;有没有自己做过大模型微调;怎么样把产品直观质量,做到 high level?……
成果问题:产品有没有实际投入使用?产品有多少个用户测试反馈?有没有主动去推动产品向真实用户去做测试?……
这些问题的模拟回答,是希望能够让大家在繁重的开发过程中,在“深陷”琐碎的技术细节的同时,有一个全局视角,能够时不时地进行自我反思与迭代。
未来,我们也将有更多直播、课程和实际的开发案例,帮助大家持续去学习和迭代,为大家的备赛过程再加一个氮泵!
更多问题,可联系 liuconglin@baidu.com
另外,为了更好地助力设计师、产品经理和初阶开发者更快速地入门 AI 产品原型设计,我们联合全球顶尖高保真原型设计工具 ProtoPie ,基于 ERNIE SDK 能力,共同推出《如何提高 AI 产品原型表现力》公开课!欢迎大家报名!
评论