靠人工智能,无法说话的人也能再次说话

最近有几项研究,致力于让瘫痪无法说话的人也能再次说话,方法是依靠人工智能解读大脑神经信号,重建出人们可以理解的单词与句子。

现在中风与其他原因失去说话能力的患者,可以使用眼睛或是其他部位的小动作来操作光标,在屏幕上点击字母进行语句表达,不过,大脑如果能通过链接计算机接口产生语音的话,那原本无法说话的人,将能用更加主动的方式与其他人交互,甚至是与他人顺畅的交叉谈话。尽管难度很高,但近期的研究说明了这样的可能性。

加州大学旧金山分校的神经外科医生Edward Chang与其带领的团队,根据3名癫痫患者大声说话时的大脑说话规划区域与运动区域的信号,已经能重建出完整的语句。研究团队邀了166个人听取计算机重建的声音,并在10个句子选项选出正确的配对,发现计算机合成语句可识别度超过80%。

Edward Chang的研究甚至可以识别出,人类大脑用来控制语音与歌声高低的区域,喉咙用发声与控制音调的肌肉,由不同的神经群体编码,他们通过刺激大脑皮层,证明了喉部肌肉控制的因果关系。

而哥伦比亚大学的计算机科学家Nima Mesgarani带领的团队,则是研究5名癫痫患者的脑部数据,他们让病患听录音并且给给0到9的数字编号,并在同时录制这些病患大脑听觉皮层的信号,通过神经网络分析这些信号,计算机将能根据神经信号重建口说的的数字,人们识别这些计算机合成出来的数字语音的正确率能达75%。

该研究团队根据神经元不同时点打开与关闭的模式推断语音,Nima Mesgarani表示,要找到将神经信号转换成实际语音之间的映射关系很困难,他们需要对每个人进行特别的训练,而且这个过程需要用到非常精确的数据,需要打开人类大脑头骨以进一步获得大脑神经元的信号。

另一个研究是来自德国不莱梅大学神经克学家Miguel Angrick,与马斯垂克大学Christian Herff带领的研究团队的合作成果,他们通过收集6位进行脑肿瘤手术患者的数据,以麦克风捕捉他们朗读单音节单词的声音,并同时以电极从大脑的说话规划区域与运动区域纪录信号,这些区域在人们要说话时,会通过神经向声道发送命令,类神经网络将电极收到的信号,映射到患者的语音上,由系统重建的语音,约有40%的单词可供识别。

不过,研究人员很少能进行这类侵入性的研究,因此除非是在切除脑部肿瘤,大脑暴露的时候,另一个时机则是癫痫患者在手术治疗之前,需要植入电极数天以获取准确癫痫发作来源时,但研究团队仍最多只有20到30分钟收集数据。