eLife今日发表的新发现表明,先前被认为主要在手和手臂运动过程中活跃的大脑运动皮层神经元,在讲话过程中也会以类似于与这些运动相关的大脑活动模式的方式亮起。
通过证明有可能从神经活动的模式中识别出不同的音节或单词,这项研究提供了一些见解,这些见解可以潜在地用于恢复失去说话能力的人的声音。
说话涉及人类做出的一些最精确,最协调的动作。研究它既有趣又具有挑战性,因为很少有人会在说话时从大脑内部进行测量。这项研究是BrainGate2脑机接口试验临床试验*的一部分,该试验正在测试可以与大脑“通信”的计算机设备,以帮助恢复通信并提供对义肢(如机器人手臂)的控制。
研究人员通过记录多电极阵列的大脑活动来研究语音,该阵列先前放置在参加BrainGate 2研究的两个人的运动皮层中。这使他们能够研究在语音过程中激活的大量神经元放电的时机和位置,而不是一次只激发几个。
斯坦福大学神经外科系和伍仔神经科学研究所的博士后研究员谢尔盖·斯塔维斯基解释说:“我们首先问到大脑运动皮层的所谓“把手”区域中的神经元是否活跃。 ,美国。“这似乎不太可能,因为这是一个控制手和手臂运动而不是语音的区域。但是科学文献中的线索表明可能存在重叠。”
为了测试这一点,研究小组在演讲任务中记录了参与者的神经活动,他们听到了10个不同的音节之一或10个不同的短词之一,然后在听到“ go”提示后听到提示的声音。在说单词和音节时,神经元的放电速率发生了很大变化,并且活跃的神经元散布在研究人员记录的运动皮层的整个部分。而且,当参与者听到声音时,发声率并没有太大变化,只有当他们说出声音时。神经元活动的这种变化还对应于类似声音的组,称为音素,并具有脸部和嘴部运动。这表明,尽管整个运动皮层对不同身体部位的控制存在高度隔离,但各个神经元的活动却重叠。
接下来,该团队进行了“解码”分析,以查看神经元发射模式是否可以揭示有关所讲特定声音的信息。他们发现,通过分析近200个电极上的神经活动,他们可以识别出参与者在说几个音节或单词中的哪个。实际上,对于其中一位参与者,在80%以上的病例中,对于另一位参与者,在某些情况下,神经元活动的某些模式可以正确地预测声音或缺乏声音。
共同资深作者,霍华德·休斯医学研究所研究员,Hong Seh和Vivian WM Lim教授在学校的共同作者克里希纳·谢诺伊(Krishna Shenoy)说:“这表明可能有可能利用这种大脑活动来理解无法说话的人想说的话。”斯坦福大学工程学院,神经假肢转化实验室(NPTL)联合主任。
“通过这项研究,我们可以根据人们的大脑活动识别出他们说出的音节和单词,这为根据患者尝试说话时所测得的神经活动合成或产生文本和语音奠定了基础。” -高级作者Jaimie Henderson,John和Jene Blume-斯坦福大学神经外科系教授兼NPTL的罗伯特和露丝·哈珀林教授。“对于无法通过实际讲话提供示例数据的人们,现在需要进一步的工作来合成连续语音。”
标签: 大脑模式
免责声明:本文由用户上传,如有侵权请联系删除!