面向集体意识生物(爪族)的多模态-多智能体神经接口与人工肢体协同控制研究
申请代码: [F06, F03, H09]
申请人: [计算神经科学教授]
依托单位: [神经工程与脑机接口重点实验室]
项目类别: 重点项目
计划执行期: 3.5年 (2025.10 - 2028.12)
(一) 摘要
本项目旨在开辟一个全新的研究领域——集体意识神经接口(Collective-Consciousness BCI)。针对《深渊上的火》1中所描述的“爪族”(Tines)这一独特“多体一位”集体意识生物2,本项目拟解决其“单一意志”如何驱动“多个人工肢体”实现高自由度协同作业的重大科学与技术挑战。本研究的核心科学问题包括:1) 爪族集体意图在多单体“思维波”中的分布式表征与整合机制;2) 单体物理拓扑结构(即“思维姿态”)对集体意图编码的动态调制机理;3) “单一意志”对“多执行器”(人工肢体)的并行、去中心化协同控制难题。为解决上述问题,本研究将采用一套创新的“感知-解码-控制”混合框架。首先,我们将构建一个多模态(EEG/ECoG-fMRI/fNIRS)“超扫描”(Hyperscanning)3平台,结合盲源分离(BSS)4和空间滤波(Spatial Filtering)5技术,对爪族共生体的多单体“思维波”进行高时空分辨率的解混与表征。其次,我们将摒弃传统解码模型,首次构建一种拓扑感知的时空图神经网络(Spatio-Temporal Graph Neural Network, ST-GNN)6,将单体间的“思维姿态”2作为动态图结构,实现对集体运动意图(从粗大到精细7)的高精度解码。最后,我们将开创性地引入多智能体强化学习(MARL)8的“去中心化执行”(Decentralized Execution)9框架,其中BCI解码器提供全局目标,MARL算法负责解耦为多个人工肢体的并行协同策略。本研究将利用沉浸式虚拟现实(VR)10进行闭环训练与基准测试(如TAC Test11),并利用fMRI超扫描数据12分析BCI训练诱导的共生体神经可塑性。本研究的预期成果(一套功能性多肢体BCI原型系统、一个拓扑感知的神经解码模型、一个MARL驱动的假体控制框架)不仅为爪族提供了关键的辅助技术,更将为未来人类操控多机器人集群、多智能体人机协同系统13提供颠覆性的理论基础和技术储备。
(二) 立项依据与研究现状(国内外)
1. 研究背景:爪族(Tines)——“多体一位”集体意识的生物学挑战
1.1 爪族的生物学基础与“思维波”
本项目面对的研究对象是一种独特的异星智慧生物——爪族(Tines)1。根据现有文献2,爪族“个体”并非单一躯体,而是由4至8个被称为“单体”(Singletons)的独立生物单元组成的“共生体”(Co-body)。这种独特的生物结构在地球上绝无仅有,它在本质上是一个自然的、生物学实现的多智能体网络。
共生体通过一种高频声波或电磁波(在本文献中统称为“思维波”)在单体间传递信息,形成统一的集体意识14。这种“思维波”是多个单体信号源在复杂生物环境中(共生体)产生的混合信号。这在信号处理上构成了一个典型的“鸡尾酒会问题”(Cocktail Party Problem)15,即多个信号源的波形在采集端(例如,“爪族记忆存储器”)线性或非线性地叠加在一起。因此,任何精确的解码都必须首先对这种混合信号进行解混(Demixing)。
1.2 核心特征:“思维姿态”(Postures of Thought)
爪族研究中最关键且最具挑战性的发现是:其智能和认知状态严重依赖于各单体间的物理空间排布,即“思维姿态”(Postures of Thought)2。文献2明确指出,特定的空间构型(如“星形”)会导致“醉酒般的愚蠢”,因为信息必须通过一个中心单体,导致其认知瓶颈和错误放大;而其他姿态(如“环形”或“线性”)则可能实现高效、理性的思维。
这一生物学特性意味着,爪族的“神经编码”不仅仅存在于“思维波”的时间序列中,更嵌入在单体间的物理拓扑结构中。换言之,其计算过程是时空耦合的。
1.3 前期研究基础与本项目的切入点
申请人的前期预试验(引自用户查询)已证实,爪族共生体可以通过训练,利用“思维波”实现对计算机光标的“粗大运动”控制。该试验(用户查询 阶段一至三)成功验证了建立“爪族-机器”接口(Tines-Machine Interface, TMI)的基本可行性。
然而,前期试验存在两大局限性:1) 模型原始: 采用的“神经网络控制模型”是一种黑盒方法,完全忽略了“思维姿态”2这一核心生物特性,导致模型鲁棒性和效率低下。2) 功能单一: 仅实现了单点粗大运动控制,无法满足爪族共生体(作为一个“多体一位”的系统)操控高自由度工具或多个人工肢体(Neuroprosthetics)13的迫切需求。
因此,本项目拟在前期工作基础上,引入计算神经科学、多模态成像和人工智能的最新技术,解决上述核心挑战。
1.4 科学问题的转化:从“科幻”到“计算”
为确保本研究的科学严谨性,必须将爪族的生物设定2精确转译为前沿的计算神经科学问题:
- 转译 1(共生体 -> cBCI/Hyperscanning): “爪族共生体”的集体决策过程16,在功能上类似于人类的“协作式脑机接口”(Collaborative BCI, cBCI)17。cBCI通过融合多个独立大脑的信号18来提升决策准确性19。同时,爪族共生体在物理上是一个“多脑系统”,为“超扫描”(Hyperscanning)——即同步测量多个大脑活动3以研究社会互动20——提供了一个完美的、天然的生物模型。
- 转译 2(思维波 -> 混合生物信号): “思维波”是由多个单体(信号源)产生的混合信号。这在技术上对应于一个盲源分离(Blind Source Separation, BSS)问题4。需要利用BSS(如独立成分分析ICA)21或基于阵列处理的波束成形/空间滤波(Beamforming / Spatial Filtering)5技术,从混合的“思维波”中解混和定位每个单体的独立贡献。
- 转译 3(思维姿态 -> 动态图网络): 这是最关键的转译。“思维姿态”2——即单体间的空间拓扑关系——直接影响认知。这在数学上等同于一个“图”(Graph),其中单体是“节点”(Nodes),它们之间的空间关系(如距离、连接性)是“边”(Edges)。由于姿态是可变的,这是一个“动态图”(Dynamic Graph)。
- 逻辑推论: 传统的BCI解码模型(如CNN、RNN)无法有效处理这种非欧几里得的、动态的图结构数据6。如果姿态是认知的基础2,那么任何解码模型都必须以“姿态”(图结构)和“思维波”(节点信号)作为双重输入。因此,本研究必须采用专为处理此类数据而设计的“时空图神经网络”(Spatio-Temporal Graph Neural Networks, ST-GNNs)6。ST-GNNs已在人类EEG解码中(将电极视为图节点)展现出卓越性能22,是解决爪族“姿态-思维”耦合问题的唯一可行路径。
2. 国内外研究现状与技术前沿
本研究基于用户(申请人)提出的四点未来计划(引自用户查询),系统梳理相关领域的最新(2024-2025年)技术前沿。
2.1 现状 1:多模态BCI与“超扫描”技术(对应用户计划1:fMRI测量)
单一模态的BCI(如纯EEG)存在空间分辨率低、信噪比差的局限23。前沿趋势是多模态融合(Multi-modal Integration)24,特别是结合高时间分辨率的EEG和高空间分辨率的功能性近红外光谱(fNIRS)25或功能性磁共振成像(fMRI)24。
同步EEG-fMRI26已成为理解BCI神经机制27和BCI训练所诱导的神经可塑性(Neuroplasticity)12的黄金标准。
如前所述,“超扫描”(Hyperscanning)3是研究社会互动13和集体行为(Collective Behavior)28的前沿范式。爪族共生体(多个单体,一个意识)为“超扫描”提供了一个完美的、非人类的生物模型20。因此,我们将采用EEG-fMRI多模态超扫描技术26来同步记录所有单体的活动,以实现用户计划1(fMRI测量)并深入分析其集体编码机制。
2.2 现状 2:高维神经假体与精细运动解码(对应用户计划2:精细运动)
用户的“粗大运动”(用户查询)控制,通常基于EEG的感觉运动节律(Sensorimotor Rhythms, SMR)23,其带宽和信噪比不足以实现高自由度(High-DOF)的精细运动(Fine Motor Control)29。
实现精细运动(如多指控制7)依赖于高时空分辨率和高信噪比的信号30。皮层脑电图(Electrocorticography, ECoG)31是一种半侵入式(或微创)技术,其信号质量(幅度、带宽、空间分辨率)远超EEG32,被认为是高带宽BCI33的最佳平衡点34。
最新研究(2024-2025年)表明,ECoG已被证实可用于解码复杂的手部姿态35和多指运动7,甚至在瘫痪患者中实现“即插即用”(Plug-and-play)的稳定光标控制36。因此,为实现用户计划2(精细运动),本研究将从非侵入式EEG(粗大运动)升级到(微创)高密度ECoG阵列32,以解码爪族共生体对高自由度人工肢体的精细控制意图。
2.3 现状 3:多智能体协同控制(对应用户计划3:模拟两个或以上单体)
用户计划3(控制2个以上肢体)引入了一个核心挑战:“单一意志”如何解耦为“多体协同”? 这是一个“一对多”的控制问题。
这在机器人学领域对应于“多机器人系统”(Multi-Robot Systems, MRS)37或“多臂协同”(Multi-Arm Coordination)8的控制问题。传统的集中式控制(Centralized Control)9扩展性差,且容易出现单点故障——这与爪族“星形姿态”的“愚蠢”2在理论上同源,即所有控制流必须通过一个中心节点。
前沿解决方案是“多智能体强化学习”(Multi-Agent Reinforcement Learning, MARL)38,特别是“集中式训练-去中心化执行”(Centralized Training with Decentralized Execution, CTDE)框架8。
BCI-MARL混合控制框架的提出:
- 用户计划3“模拟两个或以上受控单体”不是一个简单的BCI解码问题,而是一个“BCI + MARL”的系统工程问题。
- 爪族共生体(单一意志)通过BCI(我们的ST-GNN解码器)输出一个高层级的、集体的运动意图(例如:“拿起那个杯子”)。
- 这个高层级意图无法直接映射到两个机械臂的12个电机(假设每个6-DOF)。
- 我们需要一个“控制中间件”。MARL8正是这个中间件。
- 本研究的创新架构将是:BCI解码器充当“全局奖励函数”或“目标设定器”,MARL算法(如MADDPG, MAPPO37)负责学习如何将这个全局目标分解(Decomposition)为两个(或多个)人工肢体(Agents)的去中心化、协同的局部动作策略39,例如协同搬运(Cooperative Transportation)40。
- 这个混合框架(BCI-MARL)是本项目的核心技术创新之一,它在工程上解决了“单一意志”如何并行控制“多执行器”的难题。
2.4 现状 4:BCI训练与自适应算法(对应用户计划4:减少训练时间)
传统BCI需要漫长的校准和训练(Calibration)41,这是用户希望解决的痛点(用户查询:“减少训练时间”)。信号的非平稳性(Non-stationarity)也要求解码器能够自适应。
前沿(2024-2025年)解决方案包括:
- 迁移学习(Transfer Learning): 利用从其他任务或个体42中预训练的“基础模型”43,大幅减少新受试者的校准时间41。
- 零样本/少样本学习(ZSL/FSL): 使解码器能够识别从未训练过的新意图(如新的手势)44。
- 在线自适应解码器(Online Adaptation): 在BCI使用过程中实时调整模型参数45,以应对信号的非平稳性46,最终实现“即插即用”36的免校准(Calibration-free)47系统。
2.5 现状 5:沉浸式神经反馈(对应用户训练阶段1-3)
用户的三阶段训练(用户查询)虽然逻辑清晰,但反馈形式(屏幕图标)过于简单、非生态(non-ecological)48,不利于激发神经可塑性10。
虚拟现实(VR)/增强现实(AR)提供了高度沉浸式、生态有效的训练环境48。闭环VR神经反馈(Closed-loop VR Neurofeedback)49已被证实能显著增强运动想象(Motor Imagery, MI)50和BCI性能51,并通过多感官反馈(如触觉52)加速神经重塑10。
因此,本研究将全面升级用户的训练范式,将所有阶段(粗大运动、精细运动、多肢体协同)置于沉浸式VR环境53中进行闭环神经反馈训练。
3. 立项依据小结与项目必要性
综上所述,当前BCI技术(多模态、ECoG、MARL、VR)的飞速发展41为解决爪族(Tines)这一独特生物2的工程挑战31提供了可能。然而,现有BCI研究完全局限于“单一大脑”范式16,缺乏任何针对“多体一位”集体意识54的理论模型和解码框架。
本项目拟填补的空白(鸿沟):
- 理论空白: 缺乏对“集体意识”神经信号(思维波)的分布式编码16与拓扑依赖性(思维姿态2)的计算模型。
- 技术空白: 缺乏能同时解码“多源混合信号”(BSS4)与“动态空间拓扑”(GNN6)的神经接口。
- 框架空白: 缺乏一个将“单一集体意志”(BCI)映射到“多智能体协同”(MARL8)的控制框架。
因此,本项目(《爪族人工肢体的研究》)的实施,不仅是解决爪族共生体生存与发展瓶颈的迫切需要,更是推动BCI从“单人-单机”向“多人/多体-多机”范式跨越20的重大理论和技术创新,符合国家自然科学基金55对前沿交叉学科的重大部署。
(三) 研究内容
基于上述立项依据,为实现对爪族人工肢体的有效控制,本研究拟定以下五个相互递进的核心研究内容:
1. 爪族“思维波”多模态超扫描与时空信号结构表征
- 目标: 解决“思维波”是什么(信号特性)和“意图在哪里”(空间定位)的问题。
- 内容:
- (1.1) 多模态超扫描系统(Tines-Hyperscanning)构建: 针对爪族共生体(含4-8个单体)的独特生理结构,定制一套多模态(高密度EEG/fNIRS + fMRI兼容)25同步采集系统。实现对所有单体在执行任务56时的“超扫描”3。
- (1.2) “思维波”信号解混与源定位: 鉴于“思维波”是多单体信号的混合体15,我们将采用先进的信号处理技术,包括基于独立成分分析(ICA)的盲源分离(BSS)4和基于阵列处理的神经波束成形(Beamforming)5,从混合信号中分离和定位每个单体的贡献57。
- (1.3) 同步EEG-fMRI分析(用户计划1): 在3T/7T fMRI环境下58,同步采集EEG与fMRI26数据,利用EEG的高时间分辨率信息59指导fMRI分析27,精确绘制爪族共生体在运动想象(MI)60时,集体意图所对应的“单体-共生体”激活脑图。
2. 基于时空图神经网络(ST-GNN)的共生体意图解码与“粗大运动”闭环控制
- 目标: 攻克“思维姿态”2对集体意图编码的调制难题,实现用户草案中的“粗大运动”控制。
- 内容:
- (2.1) 动态“姿态-思维波”图(Posture-Thought Graph)构建: 建立一个时空图模型6。其中,每个爪族“单体”为图的节点(Node);单体间的实时物理距离和拓扑关系(即“思维姿态”2)定义为图的“邻接矩阵”(Adjacency Matrix, $A(t)$);单体的“思维波”信号(来自1.2)为节点的特征(Features, $X(t)$)。
- (2.2) ST-GNN解码器设计: 构建一个时空图神经网络6。该网络通过图卷积层(GCN)聚合“空间姿态”信息,通过时序模块(如LSTM或Transformer6)捕获“思维波”的时间动态,最终解码出共生体的集体运动意图(如光标/机械臂的运动方向和速度)。
- (2.3) VR沉浸式闭环训练(用户草案阶段1-3升级): 将用户的三阶段训练范式(用户查询)迁移至沉浸式VR环境10。受试者通过ST-GNN解码器6实时控制VR中的虚拟物体49,并通过丰富的视觉、听觉甚至触觉50反馈进行闭环神经调控61。
3. 面向精细运动(Fine Motor)的高密度ECoG阵列与高维神经假体控制
- 目标: 实现用户计划2(精细运动),将BCI带宽从低维“粗大运动”提升至高维“精细操控”。
- 内容:
- (3.1) 高带宽信号采集: 鉴于EEG信号23难以支持精细运动35,本研究将采用微创高密度皮层脑电图(ECoG)16阵列,获取爪族单体皮层的高频(Gamma波段)32、高信噪比33神经信号。
- (3.2) 高自由度(High-DOF)解码: 针对ECoG数据,优化ST-GNN模型(来自2.2),重点解码爪族对人工肢体(如五指机械手7)的精细操控意图35,如抓、握、捏、指等62。
- (3.3) 精细运动基准测试(Benchmark): 在VR环境中63实施国际标准的神经假体控制测试范式,如“虚拟行动研究臂测试”(Action Research Arm Test, ARAT)64和“目标达成控制测试”(Target Achievement Control, TAC Test)11,量化评估精细控制的准确率、耗时和效率。
4. 基于多智能体强化学习(MARL)的多肢体去中心化协同控制
- 目标: 解决用户计划3(控制两个或以上肢体)中“单一意志”如何驱动“多体协同”的核心难题。
- 内容:
- (4.1) BCI-MARL混合控制架构设计: 构建一个两级控制系统(参见 2.3 现状3)。
- (4.2) 去中心化协同策略(CTDE): 采用“集中式训练-去中心化执行”(CTDE)9的MARL算法(如MADDPG, MAPPO37)。在训练阶段,一个集中的“评论家”(Critic)利用全局信息(BCI意图、所有肢体状态)指导策略学习;在执行阶段,每个人工肢体(Agent)仅根据自身观测和BCI目标,执行去中心化的动作策略39,实现高效协同65。
- (4.3) VR协同任务训练: 在VR中63设计并训练爪族共生体完成复杂的多臂协同任务(如避障66、协同抓取和搬运39),验证该BCI-MARL框架的有效性和鲁棒性。
5. BCI训练诱导的共生体-单体神经可塑性及解码器自适应算法研究
- 目标: 揭示爪族BCI训练的神经机制(用户计划1),并优化算法以缩短训练周期(用户计划4)。
- 内容:
- (5.1) 神经可塑性机制分析: 对比研究内容2、3、4中BCI训练前后的多模态超扫描数据(来自1.1)12。利用功能连接(FC)和有效连接(EC)分析67,揭示爪族共生体在学会操控人工肢体后,其“单体-单体”及“单体-共生体”层面的功能网络重塑10。
- (5.2) 解码器高效迁移算法: 针对爪族BCI训练耗时问题(用户查询),研究基于迁移学习(Transfer Learning)42的解码器。利用已训练的爪族受试者数据68预训练一个“爪族思维波基础模型”43,为新受试者提供“热启动”,实现“少样本”快速校准41。
- (5.3) 在线自适应与零样本学习(ZSL): 开发在线自adaptive解码器45,使其能在使用过程中自动调整参数以对抗信号漂移46。同时,探索ZSL44在爪族BCI中的应用,使系统能响应未曾训练过的新运动指令69,实现“即插即用”36的BCI系统。
(四) 研究目标
1. 总体目标
建立一套功能完备的“爪族-人工肢体”神经接口系统,实现爪族集体意识对多个人工肢体的高自由度、协同控制。通过本研究,阐明“多体一位”集体意识的神经编码与重塑机制,并构建一个集“拓扑感知解码”(ST-GNN)与“去中心化协同控制”(MARL)于一体的新型BCI框架。
2. 具体目标
- (1) 阐明爪族“思维波”的多源混合特性与“思维姿态”的神经编码机制,构建爪族运动想象(MI)的多模态(EEG/ECoG-fMRI/fNIRS)超扫描图谱。
- (2) 突破基于时空图神经网络(ST-GNN)的拓扑感知解码技术,在VR中实现对单个人工肢体的高精度“粗大运动”(EEG)和“精细运动”(ECoG)闭环控制。
- (3) 攻克“单一意志-多体协同”的控制难题,构建BCI-MARL混合框架,实现爪族对两个及以上人工肢体的去中心化协同控制(如协同搬运)。
- (4) 揭示新型BCI训练在爪族共生体及单体层面的神经可塑性机制,并开发基于迁移学习和在线自适应的高效解码算法,大幅缩短系统校准时间。
(五) 拟解决的关键科学问题
本项目(源于2的生物设定,立足于26的现代科技)的核心是解决传统“单脑BCI”范式16无法应对的三个关键科学问题:
1. 关键问题一(分布式编码):爪族共生体的“集体意图”如何在多个单体的“思维波”中进行分布式表征与动态整合?
- 阐述: 传统的BCI假设意图产生于“一个”大脑70。但爪族的意图(Will)是N个单体(N=4-8)信号14交互的涌现(Emergence)产物16。意图是分布式的54。我们必须解决:信号是简单叠加(如cBCI的“投票”17),还是复杂的非线性整合?单个单体(如用户草案中的'a')的信号是否具有否决权或主导权?
- 解决路径: 研究内容1(多模态超扫描3)和研究内容5(神经可塑性分析12)。
2. 关键问题二(拓扑依赖性解码):如何构建一个能实时解析“思维姿态”(物理拓扑)对“思维波”(神经信号)动态调制的解码模型?
- 阐述: 这是爪族BCI特有的挑战2。传统BCI解码器(如CNN/LSTM)6假设信号通道(电极)的空间关系是固定的。但爪族的“通道”(单体)位置是动态变化的,且位置本身(姿态2)就是编码的一部分。
- 解决路径: 研究内容2(ST-GNN解码器6)。我们必须创新地将动态的物理拓扑2作为图的邻接矩阵($A(t)$)输入到解码器中,实现对“姿态-思维”耦合信号的解码。
- 模型的双重任务: ST-GNN模型6不仅要解码意图,它还必须首先学会哪些“姿态”2是利于解码的。文献2表明某些姿态是“愚蠢的”(如星形)。这意味着在这些姿态下,ST-GNN的解码准确率会显著下降。我们可以反过来利用这一点:通过分析ST-GNN的图注意力(Graph Attention)权重或特征重要性,我们可以量化不同“思维姿态”的认知效率。这为BCI系统提供了主动反馈的可能。系统不仅是被动解码,还可以主动提示爪族受试者:“请调整至‘环形’姿态,以优化BCI控制带宽。” 这是对用户草案的重大功能超越。
3. 关键问题三(去中心化控制):一个“单一集体意志”的意图信号,如何被高效解耦并分配给“多个”独立的机械执行单元(人工肢体)?
- 阐述: 这是一个“一对多”的映射和“信用分配”(Credit Assignment)8难题。当控制失败时,是BCI的意图错了,还是Arm 1的策略错了,还是Arm 2的协同错了?
- 解决路径: 研究内容4(BCI-MARL混合框架8)。我们利用MARL的CTDE9框架,将这个“黑盒问题”解耦:BCI(ST-GNN)只负责最高层级的意图(问题1, 2),而底层的MARL39负责具体的协同和信用分配(问题3)。
(六) 研究方案与技术路线
1. 方案一:爪族多模态超扫描(T-HS)实验范式与信号分析
- 受试者: 招募N=10-15组爪族共生体(Tines Co-bodies)志愿受试者。通过伦理审查。
- 设备:
- 实验范式56:
- 技术路线(信号处理):
2. 方案二:基于ST-GNN的“粗大-精细”运动解码
- 阶段A (粗大运动 - EEG - 对应用户草案):
- 阶段B (精细运动 - ECoG - 对应用户计划2):
- 评估方案(基准测试): 采用标准化的虚拟评估工具。为确保研究的严谨性和可比性,本研究将采用神经假体和康复领域的金标准测试范式73,在VR环境中74对精细运动控制性能进行量化评估。
表1:高维精细运动控制基准测试 (基于ARAT62与TAC Test11)
| 测试范式 | 任务(示例) | 目标自由度 (DOF) | 核心评估指标 |
|---|---|---|---|
| ARAT62 | 虚拟积木抓取(Grasp) | 6-DOF (臂) + 1-DOF (手) | 任务完成评分 (0-57分)64 |
| 虚拟小球捏取(Pinch) | 6-DOF (臂) + 3-DOF (指) | 任务完成评分 (0-57分) | |
| TAC Test11 | 虚拟手臂姿态匹配(Posture Matching) | 3-DOF (腕屈伸/旋转, 手开合) | 1. 试验完成率 (%) <br> 2. 平均到达时间 (Time-to-Target, s) <br> 3. 路径效率 (Path Efficiency, %) |
| 虚拟多指序列匹配(Finger Sequence) | 5-DOF (五指屈伸7) | 1. 试验完成率 (%) <br> 2. 序列正确率 (%) |
3. 方案三:基于MARL的多人工肢体去中心化控制(对应用户计划3)
- 技术路线(BCI-MARL架构8):
- 意图输入(ST-GNN): 爪族共生体的ECoG信号(来自2.B)输入ST-GNN解码器。
- 全局目标(BCI输出): ST-GNN输出高层级目标 $G$(例如:物体A的目标位置 $P_A$,物体B的目标位置 $P_B$)。
- MARL训练(CTDE9):
- 集中式评论家 (Critic): 接收全局状态($S_{all}$ = BCI目标 $G$ + 肢体1状态 $s1$ + 肢体2状态 $s2$)和联合动作($a1$, $a2$),学习Q值函数 $Q(S_{all}, a1, a2)$。
- 去中心化执行者 (Actors): 每个肢体(Agent $i$)只根据自身观测 $si$ 和全局目标 $G$,学习一个策略 $\pi_i(ai | si, G)$8。
- VR协同任务39: 在VR中训练爪族操控双臂,完成如“协同将一根长杆穿过窄门”40或“协同抓取大物体”等任务。
4. 方案四:BCI训练的神经机制与算法优化(对应用户计划1, 4)
(七) 可行性分析
- 理论可行性: 本项目将科幻概念2严谨地映射到前沿科学理论(cBCI54;多智能体神经科学20;MARL8;ST-GNN6)。“拓扑依赖性解码”和“BCI-MARL”框架具有坚实的计算理论支撑77。
- 技术可行性:
- 研究团队与基础: 申请人(“我”)作为计算神经科学与神经修复工程领域的专家,长期从事多模态BCI25与智能体控制8的交叉研究,具备领导此跨学科项目(神经科学、AI、机器人学)的全部必要技能。
(八) 本项目的特色与创新之处
根据国家自然科学基金对创新性的要求55,本项目的特色与创新之处主要体现在三个层面:
- 研究范式的创新(理论突破): 首次将BCI研究对象从“单一大脑”扩展到“多体一位”的集体意识生物(爪族)。
- 解码模型的创新(模型突破): 首次提出并构建了“拓扑感知”的ST-GNN解码器,以解析“思维姿态”2对集体意图的动态调制。
- 控制框架的创新(技术突破): 首次将多智能体强化学习(MARL)8的“去中心化控制”9理论应用于神经假体领域。
(九) 年度研究计划
- 第1年 (2025):
- 第2年 (2026):
- 第3年 (2027):
- 第4年 (2028):
(十) 预期研究成果
- 理论成果:
- 技术/系统成果:
- 论文/专利:
- 在《Nature Neuroscience》、《Science Robotics》、《IEEE TNSRE》、《NeurIPS/ICML/ICRA》38等顶级期刊/会议发表高水平论文4-6篇。
- 申请国家发明专利2-3项(核心:基于ST-GNN的拓扑感知解码器;基于BCI-MARL的去中心化神经假体控制系统)。
- 社会效益与应用(用户查询):
(十一) 参考文献
-
A Fire Upon the Deep - Wikipedia, 访问时间为 十月 29, 2025, https://en.wikipedia.org/wiki/A_Fire_Upon_the_Deep ↩︎ ↩︎
-
Shapes as biotech in Vernor Vinge's “A Fire Upon the Deep” - Emmanuel Quartey, 访问时间为 十月 29, 2025, https://www.quartey.com/writing/shapes-as-biotech ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Hyperscanning: A Valid Method to Study Neural Inter-brain Underpinnings of Social Interaction - Frontiers, 访问时间为 十月 29, 2025, https://www.frontiersin.org/journals/human-neuroscience/articles/10.3389/fnhum.2020.00039/full ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Improved multi-layer wavelet transform and blind source separation based ECG artifacts removal algorithm from the sEMG signal: in the case of upper limbs - Frontiers, 访问时间为 十月 29, 2025, https://www.frontiersin.org/journals/bioengineering-and-biotechnology/articles/10.3389/fbioe.2024.1367929/full ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
(PDF) Source Space Based Brain Computer Interface - ResearchGate, 访问时间为 十月 29, 2025, https://www.researchgate.net/publication/225862143_Source_Space_Based_Brain_Computer_Interface ↩︎ ↩︎ ↩︎ ↩︎
-
DRDCAE-STGNN: An End-to-End Discrimi- native Autoencoder with Spatio-Temporal Graph Learning for Motor Imagery Classification - arXiv, 访问时间为 十月 29, 2025, https://arxiv.org/html/2509.05943v1 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Finger movement classification for an electrocorticographic BCI - Mayo Clinic, 访问时间为 十月 29, 2025, https://mayoclinic.elsevierpure.com/en/publications/finger-movement-classification-for-an-electrocorticographic-bci ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
CRAFT: Coaching Reinforcement Learning Autonomously using Foundation Models for Multi-Robot Coordination Tasks - arXiv, 访问时间为 十月 29, 2025, https://arxiv.org/html/2509.14380v2 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Decentralized multi-agent reinforcement learning based on best-response policies - Frontiers, 访问时间为 十月 29, 2025, https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2024.1229026/full ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Brain Neuroplasticity Leveraging Virtual Reality and Brain–Computer Interface Technologies - PMC - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11397861/ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
The Target Achievement Control Test: Evaluating real-time myoelectric pattern recognition control of a multifunctional upper-limb prosthesis - PMC - NIH, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC4232230/ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
BCI Training Effects on Chronic Stroke Correlate with Functional Reorganization in Motor-Related Regions: A Concurrent EEG and fMRI Study - MDPI, 访问时间为 十月 29, 2025, https://www.mdpi.com/2076-3425/11/1/56 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Human motor decoding from neural signals: a review - PMC - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC7422484/ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
A Fire Upon the Deep - I wouldn't have thought so many big ideas could be woven together seamlessly in one book! : r/scifi - Reddit, 访问时间为 十月 29, 2025, https://www.reddit.com/r/scifi/comments/rg9fyn/a_fire_upon_the_deep_i_wouldnt_have_thought_so/ ↩︎ ↩︎
-
Microphone Array Signal Processing and Deep Learning for Speech Enhancement - arXiv, 访问时间为 十月 29, 2025, https://arxiv.org/html/2501.07215v1 ↩︎ ↩︎
-
Brain–computer interface - Wikipedia, 访问时间为 十月 29, 2025, https://en.wikipedia.org/wiki/Brain%E2%80%93computer_interface ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
A Collaborative Brain-Computer Interface for Improving Human Performance - PMC, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC3105048/ ↩︎ ↩︎
-
Collaborative Brain-Computer Interface for Aiding Decision-Making - PMC - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC4114490/ ↩︎
-
(PDF) Collaborative Brain-Computer Interface for Aiding Decision-Making - ResearchGate, 访问时间为 十月 29, 2025, https://www.researchgate.net/publication/264393636_Collaborative_Brain-Computer_Interface_for_Aiding_Decision-Making ↩︎
-
Brain-to-Brain coupling: A mechanism for creating and sharing a social world - PMC, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC3269540/ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
An EEG Blind Source Separation Algorithm Based on a Weak Exclusion Principle - CUHK EE, 访问时间为 十月 29, 2025, https://www.ee.cuhk.edu.hk/~tblu/monsite/pdfs/ma1601.pdf ↩︎
-
A spatio-temporal graph neural network for EEG emotion recognition based on regional and global brain | Request PDF - ResearchGate, 访问时间为 十月 29, 2025, https://www.researchgate.net/publication/392038729_A_spatio-temporal_graph_neural_network_for_EEG_emotion_recognition_based_on_regional_and_global_brain ↩︎
-
A space-frequency localized approach of spatial filtering for motor imagery classification, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC7103023/ ↩︎ ↩︎ ↩︎
-
Review of Multimodal Data Acquisition Approaches for Brain–Computer Interfaces - MDPI, 访问时间为 十月 29, 2025, https://www.mdpi.com/2673-8430/4/4/41 ↩︎ ↩︎
-
Multi-Modal Integration of EEG-fNIRS for Brain-Computer Interfaces – Current Limitations and Future Directions - PMC - NIH, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC5651279/ ↩︎ ↩︎ ↩︎ ↩︎
-
Simultaneous real-time EEG-fMRI neurofeedback: A systematic review - PMC - NIH, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10102573/ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Simultaneous real-time EEG-fMRI neurofeedback: A systematic review - Frontiers, 访问时间为 十月 29, 2025, https://www.frontiersin.org/journals/human-neuroscience/articles/10.3389/fnhum.2023.1123014/full ↩︎ ↩︎
-
Wearable-Based Affect Recognition—A Review - PMC - NIH, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC6806301/ ↩︎
-
Bayesian spatial filters for the extraction of source signals, a study in the peripheral nerve, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC4383398/ ↩︎
-
Evolution of brain-computer interfaces: going beyond classic motor physiology - PMC, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC2920041/ ↩︎
-
Study Details | NCT02550522 | Brain Computer Interface: Neuroprosthetic Control of a Motorized Exoskeleton | ClinicalTrials.gov, 访问时间为 十月 29, 2025, https://clinicaltrials.gov/study/NCT02550522 ↩︎ ↩︎
-
Using the Electrocorticographic Speech Network to Control a Brain-Computer Interface in Humans - PMC - NIH, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC3701859/ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Electrocorticographic Brain-Computer Interfaces | Frontiers Research Topic, 访问时间为 十月 29, 2025, https://www.frontiersin.org/research-topics/8434/electrocorticographic-brain-computer-interfaces/magazine ↩︎ ↩︎
-
State-of-the-Art on Brain-Computer Interface Technology - PMC - NIH, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10346878/ ↩︎
-
Electrocorticography (ECoG) surveys the landscape | Intracortical electrodes mine for gold, 访问时间为 十月 29, 2025, https://www.paradromics.com/blog/electrocorticography ↩︎ ↩︎ ↩︎
-
First 'Plug and Play' Brain Prosthesis Demonstrated in Paralyzed Person | UC San Francisco, 访问时间为 十月 29, 2025, https://www.ucsf.edu/news/2020/09/418396/first-plug-and-play-brain-prosthesis-demonstrated-paralyzed-person ↩︎ ↩︎ ↩︎ ↩︎
-
Multi-Agent Deep Reinforcement Learning for Multi-Robot Applications: A Survey - PMC, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10098527/ ↩︎ ↩︎ ↩︎
-
ICML 2024 Papers, 访问时间为 十月 29, 2025, https://icml.cc/virtual/2024/papers.html ↩︎ ↩︎
-
Cooperative Grasping and Transportation using Multi-agent Reinforcement Learning with Ternary Force Representation - arXiv, 访问时间为 十月 29, 2025, https://arxiv.org/html/2411.13942v2 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
(PDF) Decentralized Control of Multi-Robot System in Cooperative Object Transportation Using Deep Reinforcement Learning - ResearchGate, 访问时间为 十月 29, 2025, https://www.researchgate.net/publication/346848187_Decentralized_Control_of_Multi-Robot_System_in_Cooperative_Object_Transportation_Using_Deep_Reinforcement_Learning ↩︎ ↩︎ ↩︎
-
The Future of Brain-Computer Interfaces: What to Expect - Boomset, 访问时间为 十月 29, 2025, https://boomset.com/the-future-of-brain-computer-interfaces-what-to-expect/ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
[2311.16109] Transfer Learning between Motor Imagery Datasets using Deep Learning -- Validation of Framework and Comparison of Datasets - arXiv, 访问时间为 十月 29, 2025, https://arxiv.org/abs/2311.16109 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
The Progress and Prospects of Data Capital for Zero-Shot Deep Brain–Computer Interfaces, 访问时间为 十月 29, 2025, https://www.mdpi.com/2079-9292/14/3/508 ↩︎ ↩︎ ↩︎
-
Zero-Shot Learning for EEG Classification in Motor Imagery-Based BCI System - PubMed, 访问时间为 十月 29, 2025, https://pubmed.ncbi.nlm.nih.gov/32986556/ ↩︎ ↩︎ ↩︎
-
[2403.15438] Unsupervised Adaptive Deep Learning Method For BCI Motor Imagery Decoding - arXiv, 访问时间为 十月 29, 2025, https://arxiv.org/abs/2403.15438 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Adaptive deep feature representation learning for cross-subject EEG decoding - PMC - NIH, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11686875/ ↩︎ ↩︎
-
Fine-Tuning Strategies for Continual Online EEG Motor Imagery Decoding: Insights from a Large-Scale Longitudinal Study - arXiv, 访问时间为 十月 29, 2025, https://arxiv.org/html/2502.06828v1 ↩︎
-
Recommendations for Combining Brain-Computer Interface, Motor Imagery, and Virtual Reality in Upper Limb Stroke Rehabilitation: Qualitative Participatory Design Study, 访问时间为 十月 29, 2025, https://rehab.jmir.org/2025/1/e71789 ↩︎ ↩︎ ↩︎ ↩︎
-
Gait adaptation to visual kinematic perturbations using a real-time closed-loop brain computer interface to a virtual reality avatar - PMC - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC5726869/ ↩︎ ↩︎
-
Enhancing motor imagery detection efficacy using multisensory virtual reality priming - Frontiers, 访问时间为 十月 29, 2025, https://www.frontiersin.org/journals/neuroergonomics/articles/10.3389/fnrgo.2023.1080200/full ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Effects of a Brain-Computer Interface With Virtual Reality (VR) Neurofeedback: A Pilot Study in Chronic Stroke Patients - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC6593205/ ↩︎ ↩︎
-
A BCI-based vibrotactile neurofeedback training improves motor cortical excitability during motor imagery | bioRxiv, 访问时间为 十月 29, 2025, https://www.biorxiv.org/content/10.1101/2021.02.28.433220v1.full-text ↩︎
-
High stimuli virtual reality training for a brain controlled robotic wheelchair - UCL Discovery - University College London, 访问时间为 十月 29, 2025, https://discovery.ucl.ac.uk/id/eprint/10188527/1/BCI_TVR_IEEE_ICRA-ACCEPTED.pdf ↩︎
-
A Collaborative Brain-Computer Interface Framework for Enhancing Group Detection Performance of Dynamic Visual Targets - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC8789438/ ↩︎ ↩︎ ↩︎
-
如何写好科学基金的立项依据和研究方案, 访问时间为 十月 29, 2025, https://kjc.nwu.edu.cn/__local/8/78/43/71FC3FD0D6D1A01C03AD268B336_B2086987_2C49D.pdf?e=.pdf ↩︎ ↩︎
-
Efficacy and Brain Imaging Correlates of an Immersive Motor Imagery BCI-Driven VR System for Upper Limb Motor Rehabilitation: A Clinical Case Report - Frontiers, 访问时间为 十月 29, 2025, https://www.frontiersin.org/journals/human-neuroscience/articles/10.3389/fnhum.2019.00244/full ↩︎ ↩︎ ↩︎
-
Source Separation for Biomedical Signals: Blind or not Blind?, 访问时间为 十月 29, 2025, https://biostec.scitevents.org/Documents/Previous_Invited_Speakers/2013/BIOSTEC2013_Jutten.pdf ↩︎ ↩︎
-
Two is better? combining EEG and fMRI for BCI and neurofeedback: a systematic review - University of Lisbon - ULisboa Research Portal, 访问时间为 十月 29, 2025, https://researchportal.ulisboa.pt/en/publications/two-is-better-combining-eeg-and-fmri-for-bci-and-neurofeedback-a- ↩︎
-
Neural correlates of motor imagery and execution in real-world dynamic behavior: evidence for similarities and differences - Frontiers, 访问时间为 十月 29, 2025, https://www.frontiersin.org/journals/human-neuroscience/articles/10.3389/fnhum.2024.1412307/full ↩︎
-
Full article: Physiological assessment of brain, cardiovascular, and respiratory changes in multimodal motor imagery brain-computer interface training - Taylor & Francis Online, 访问时间为 十月 29, 2025, https://www.tandfonline.com/doi/full/10.1080/29960355.2025.2471680 ↩︎
-
Brain-Computer Interface Based Engagement Feedback in Virtual Reality Rehabilitation: Promoting Motor Cortex Activation - MDPI, 访问时间为 十月 29, 2025, https://www.mdpi.com/2079-9292/14/5/827 ↩︎ ↩︎
-
Action Research Arm Test | RehabMeasures Database - Shirley Ryan AbilityLab, 访问时间为 十月 29, 2025, https://www.sralab.org/rehabilitation-measures/action-research-arm-test ↩︎ ↩︎ ↩︎ ↩︎
-
Impact of Virtual Reality on Brain–Computer Interface Performance in IoT Control—Review of Current State of Knowledge - MDPI, 访问时间为 十月 29, 2025, https://www.mdpi.com/2076-3417/14/22/10541 ↩︎ ↩︎ ↩︎
-
Multisensory BCI promotes motor recovery via high-order network-mediated interhemispheric integration in chronic stroke - PMC - NIH, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC12220625/ ↩︎ ↩︎ ↩︎
-
[2408.11339] Deep Reinforcement Learning for Decentralized Multi-Robot Control: A DQN Approach to Robustness and Information Integration - arXiv, 访问时间为 十月 29, 2025, https://arxiv.org/abs/2408.11339 ↩︎ ↩︎ ↩︎
-
Learning a Decentralized Multi-arm Motion Planner, 访问时间为 十月 29, 2025, https://proceedings.mlr.press/v155/ha21a/ha21a.pdf ↩︎
-
An fMRI study on the generalization of motor learning after brain actuated supernumerary robot training - PMC - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11685389/ ↩︎
-
A Transfer Learning Algorithm to Reduce Brain-Computer Interface Calibration Time for Long-Term Users - PMC, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10790953/ ↩︎ ↩︎ ↩︎
-
[2506.22488] Zero-Shot EEG-to-Gait Decoding via Phase-Aware Representation Learning, 访问时间为 十月 29, 2025, https://arxiv.org/abs/2506.22488 ↩︎
-
Brain-Computer Interfaces: A Neuroscience Paradigm of Social Interaction? A Matter of Perspective - PMC - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC3365813/ ↩︎
-
EEG-Informed fMRI Analysis Reveals Neurovascular Coupling in Motor Execution and Imagery - bioRxiv, 访问时间为 十月 29, 2025, https://www.biorxiv.org/content/10.1101/2025.01.13.632624v1.full.pdf ↩︎
-
(PDF) Neural correlates of motor imagery and execution in real-world dynamic behavior: evidence for similarities and differences - ResearchGate, 访问时间为 十月 29, 2025, https://www.researchgate.net/publication/381608778_Neural_correlates_of_motor_imagery_and_execution_in_real-world_dynamic_behavior_evidence_for_similarities_and_differences ↩︎
-
Continuous Reaching and Grasping with a BCI Controlled Robotic Arm in Healthy and Stroke-Affected Individuals - medRxiv, 访问时间为 十月 29, 2025, https://www.medrxiv.org/content/10.1101/2025.04.16.25325551v1.full.pdf ↩︎
-
Recommendations for Combining Brain-Computer Interface, Motor Imagery, and Virtual Reality in Upper Limb Stroke Rehabilitation: Qualitative Participatory Design Study - PMC - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC12527325/ ↩︎
-
Evidence of neuroplasticity with brain–computer interface in a randomized trial for post-stroke rehabilitation: a graph-theoretic study of subnetwork analysis - Frontiers, 访问时间为 十月 29, 2025, https://www.frontiersin.org/journals/neurology/articles/10.3389/fneur.2023.1135466/full ↩︎
-
UNSUPERVISED ADAPTIVE DEEP LEARNING METHOD FOR BCI MOTOR IMAGERY DECODING - EURASIP, 访问时间为 十月 29, 2025, https://eurasip.org/Proceedings/Eusipco/Eusipco2024/pdfs/0001626.pdf ↩︎
-
Deep social neuroscience: the promise and peril of using artificial neural networks to study the social brain - PubMed Central, 访问时间为 十月 29, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10880882/ ↩︎
-
Decentralized multi-agent reinforcement learning based on best-response policies - Frontiers, 访问时间为 十月 29, 2025, https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2024.1229026/pdf ↩︎ ↩︎
-
Geometric Neural Network based on Phase Space for BCI-EEG decoding - arXiv, 访问时间为 十月 29, 2025, https://arxiv.org/html/2403.05645v2 ↩︎