加州大学伯克利分校与旧金山分校的研究团队在脑机接口领域取得重大进展。通过结合人工智能技术,他们成功开发出一种方法,能够将重度瘫痪患者的脑电信号实时转化为可听语音。该技术的核心在于“直播”解码方式,借鉴了类似语音助手的算法,显著缩短了从大脑意图到语音输出的时间,从传统约8秒降低至1秒内。
研究中,患者仅需“默想”句子,系统即可生成接近自然的语音。团队还通过预训练文本转语音模型,模拟患者原本的声音特征,使输出更具个性化。实验验证了该技术对多种脑信号采集设备的兼容性,并展现出强大的泛化能力,能准确解码未包含在训练数据中的新词汇。
这项成果为提升语音表达的自然度和情感丰富性提供了新方向,未来有望应用于更广泛的临床场景,帮助更多患者重获沟通能力。