中文多模态医学大模型智能分析 X 光片,实现影像诊断,完成医生问诊多轮对话
中文多模态医学大模型智能分析 X 光片,实现影像诊断,完成医生问诊多轮对话
1.背景介绍介绍
最近,通用领域的大语言模型 (LLM),例如 ChatGPT,在遵循指令和产生类似人类响应方面取得了显著的成功,这种成功间接促进了多模态大模型的研究和发展,如通用领域的多模态大模型MiniGPT-4、mPLUG-Owl、Multimodal-GPT和LLaVA ,然而,此类多模态大模型却很少出现在医学领域的研究中,阻碍了相关研究发展。visual-med-alpaca虽然在医学多模态大模型方面做出了一些很有成效的工作,然而其数据为英文诊断报告,不利于促进中文领域医学多模态大模型的研究发展。为此,我们开发了XrayGLM
以解决上述问题。XrayGLM
在医学影像诊断和多轮交互对话上显示出了非凡的潜力。
借助 ChatGPT 以及公开的数据集,我们构造了一个
X光影像-诊断报告
对的医学多模态数据集;我们将构建的中文胸部 X 光片诊断数据集在VisualGLM-6B进行微调训练,并开放了部分训练权重用于学术研究;
2.数据集
MIMIC-CXR是一个公开可用的胸部 X 光片数据集,包括 377,110 张图像和 227,827 个相关报告。
OpenI是一个来自印第安纳大学医院的胸部 X 光片数据集,包括 6,459 张图像和 3,955 个报告。
在上述工作中,报告信息都为非结构化的,不利于科学研究。为了生成合理的医学报告,我们对两个数据集进行了预处理,并最终得到了可以用于训练的英文报告。除此之外,为了更好的支持中文社区发展,借助 ChatGPT 的能力,我们将英文报告进行了中文翻译,并最终形成了可用于训练的数据集。
3.项目快速时间
3.1.安装环境
此时默认会安装deepspeed
库(支持sat
库训练),此库对于模型推理并非必要,同时部分Windows
环境安装此库时会遇到问题。 如果想绕过deepspeed
安装,我们可以将命令改为:
3.2.模型推理
3.2.1 CLI 推理
更多参数
如果您是 Google Colab Pro 会员,请可以直接在 Colab 中运行 XrayGLM:https://colab.research.google.com/drive/1aR8SSaseyprsxnor-gDyMo96V9jD7iGP?usp=sharing
3.2.2 WebUI 运行
此时访问http://127.0.0.1:7860
即可
3.3 模型训练(复现 XrayGLM)
这里的复现过程非常简单,主要是很多过程我们都为大家准备好了,大家可以随时复现一个自己的XrayGLM
。
3.4.模型训练(通用)
4. 效果展示
以下效果来自于低质量的数据训练和权重
4.1 影像诊断:
4.2 多轮对话:
5.总结
模型的能力更多来源于数据的支持,
OpenI-zh
作为微调数据集,其数据量足以支持研究,在更广泛的任务和性能表现上,我们认为在大规模数据集上预训练并在高质量少量数据集上微调是一种可行的方案;普遍意义的理解上,视觉多模态模型=视觉模型+语言模型。除了需要关注视觉模型信息与语言模型输出的搭配外,还需要额外关注到语言模型的加强,在人机的对话中,尤其是医疗语言模型的问答上,除了专业的医疗问题回答,带有人文情怀的有温度的回答更应该是我们追寻的目标。
高精度的模型永远打不过大参数的模型,如果在 6B 模型和 13B 模型上选择微调,请在资源充足情况下选择 13B 的大参数模型;
项目致谢
VisualGLM-6B为我们提供了基础的代码参考和实现;
MiniGPT-4为我们这个项目提供了研发思路;
ChatGPT 生成了高质量的中文版 X 光检查报告以支持 XrayGLM 训练;
gpt_academic为文档翻译提供了多线程加速;
项目码源见文末
更多优质内容请关注公号:汀丶人工智能;会提供一些相关的资源和优质文章,免费获取阅读。
版权声明: 本文为 InfoQ 作者【汀丶人工智能】的原创文章。
原文链接:【http://xie.infoq.cn/article/df3a851016bed067a71c69805】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论