摘要脑电信号(Electroencephalogram,EEG)分类的常用深度学习模型有卷积神经网络,循环神经网络,深度信念网络和融合网络。Transformer模型中的注意力机制在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,但目前还没有研究使用这种机制构建EEG分类模型。本研究基于EEG信号特点,使用Transformer注意力机制构建了7种模型并对其性能和可视化结果进行分析。<br> 本研究首先从时间和空间维度分别构建了基于注意力模块的Transformer模型,空间模型基于每个通道的时间序列计算通道之间的注意力,时间模型基于不同时间点的通道特征计算时间节点间的注意力。为了解决EEG序列过长造成计算量大的问题以及模型对模型局部特征提取能力较弱的问题,又在模型中添加了池化层和卷积层,分别构建了时间和空间维度上的池化模型和卷积模型。最后综合时间空间维度信息构建了融合模型。在研究中使用运动想象公共数据集对这7种模型进行测试并与前人研究比较,使用3s数据长度,空间卷积模型2分类的准确率最高,为83.31%,融合模型在3、4分类中准确率最高,分别为74.44%和64.22%,比最好水平提高了0.88%,2.11%和1.06%。6s数据长度下时间卷积模型准确率最高,准确率分别为87.80%,78.98%和68.54%,其中3、4分类比目前最好水平提升了2.37%和2.81%。在研究中还对空间模型进行了可视化,随注意力模块数的增加,模型关注区域从局部转为全局,提取的特征更加综合,更有利于分类。注意力模块不同头对各个电极分配的权重不同,大部分权重集中在运动皮层区域,和生物学发现相同,证明了模型的有效性。<br> 基于上述模型,本文还探究了注意力模块数量,不同位置编码方法对准确率的影响。随注意力模块数量的增加,准确率呈现先上升后平稳的趋势,因此构建模型时需要合理选择模块数量。使用位置编码会为位置不敏感的注意力模块提供位置信息,但使用不同编码方法的结果无明显差异。最后还提出了一种新的模型,对输入模型的向量添加可训练向量并作为分类的特征,其分类准确率和前文模型相似,初步证明了该类模型的分类能力。这些研究为模型构建和在脑机接口中的应用奠定了基础。
更多相关知识
- 浏览0
- 被引7
- 下载0
相似文献
- 中文期刊
- 外文期刊
- 学位论文
- 会议论文