写点什么

AI 与深度学习的一年

作者:Geek_6ddb29
  • 2023-12-30
    山东
  • 本文字数:1101 字

    阅读完需:约 4 分钟

前言

作为一种常见的非传染性神经系统疾病,癫痫发作可能导致意识丧失以及运动和感觉等功能的紊乱。根据世界卫生组织报告,全世界约有 6500 万的癫痫患者,且这一数字以每年近 250 万人的数量不断增长。其中,约 70%的癫痫患者可以通过使用抗癫痫药物来抑制癫痫发作。为了启动抗癫痫药物治疗,及时和准确的癫痫诊断对患者而言是至关重要的。脑电(electroencephalogram,EEG)是根据放置在脑部的颅内电极或头皮表面电极采集获得的,表示大脑中神经元放电活动,这些活动包含了大脑的实时信息。深度学习方法能以更方便的方式对特征进行提取,在图像分类、人工智能等领域取得了良好的效果。近些年来,一些研究人员开始将深度学习方法应用于癫痫发作检测领域。

方法

1 融合 GCN 和 transformer 的癫痫自动检测模型

基于 GCN 和 transformer 的癫痫自动检测模型,该网络模型处理过程中可以分成三个步骤:特征提取、重构和分类。在特征提取阶段,通过 GCN 对输入的脑电信号进行去噪并进行特征提取处理;特征重构阶段将处理后的数据作为特征重构部分的输入,利用自注意力机制将提取到的特征向量进行强化重构,得到更进一步的特征向量;特征分类阶段将特征向量输入到分类部分,通过进一步的 GCN 和 CNN 卷积层来进行分类。

1.1 GCN

GCN 的输入层由特征矩阵和邻接矩阵组成,每个节点根据邻域的属性得出自身的嵌入向量。所有节点的特征矩阵为


表示每个系统调用的特征向量,d 为特征向量的维度,邻接矩阵


描述了图 G 中节点间的边连接关系。

1.2 Transformer 基本结构

Google 在顶级机器学习会议上发表了论文“Attention is all you need”提出了 Transformer,一种自注意力机制来学习文本的表示。Transformer 是一个标准的编码--解码结构,包括一系列编码与解码器的堆叠,在自然语言处理方向十分广泛,通常任务如文本分类、情感分析等只需编码器即可,而对于一些生成式任务如机器翻译、对话分析、阅读理解等则需要解码器生成相同大小的序列结果。Transformer 最初是为了解决自然语言处理中的机器翻译任务而提出的,是一个自编码结构的“Encoder-Decoder”。输入源语言文字,把目标语言文字输出出去。将 Transformer 中的 Encoder 结构单独提取出来。可以作为较强的特征提取网络,后又在计算机视觉、多模态等领域都取得了不错的成绩,并逐渐扩展到其他领域。目前针对于脑电信号特征提取方面的研究还比较匮乏。基本模型为:

该模型可以很好的整合 EEG 脑电数据,提取脑电特征,将脑电特征输入 GCN+Transformer 模型中,进行训练,将训练模型对 EEG 数据进行检测,实现癫痫检测。

结论

通过对 AI 中深度学习的学习,可以使我们解决一些人工难以解决或者比较浪费时间的问题有更好的解决方法,帮我们节约时间,并且推动社会的进步和发展。

发布于: 刚刚阅读数: 4
用户头像

Geek_6ddb29

关注

还未添加个人签名 2023-12-29 加入

还未添加个人简介

评论

发布
暂无评论
AI与深度学习的一年_Geek_6ddb29_InfoQ写作社区