加利福尼亚大学的研究人员使用了由AI驱动的脑部计算机界面(BCI),将Anne Johnson Brain信号变成了实时演讲,因为她在2005年中风后沉默。该系统利用了类似于Alexa和Siri等设备的技术,并改进了以前具有八秒延迟的模型。
加州大学伯克利分校和加利福尼亚大学旧金山分校的研究人员,发达一种定制的脑机构接口系统,能够将自然主义的言语恢复给四肢瘫痪的47岁女性。如今,安妮(Anne)正在帮助加州大学旧金山分校和加州大学伯克利分校(UC Berkeley)开发BCI技术的研究人员,有一天可以让像她这样的人通过将面部表情符合面部表情与生成的演讲的数字化头像进行更自然的交流。
加州大学伯克利分校电气工程和计算机科学的助理教授戈帕拉周一在《自然神经科学》杂志上发表了这项研究的合着者,确认了对Ann转换为“她的意图说话为流利句子的植入设备”。演讲的乔纳森·布鲁姆伯格(Jonathan Brumberg美联社这是“在神经科学领域的一个很大的进步”。
BCI技术使女性能够在近20年后重新获得演讲
读书即将到来
脑部计算机界面的开创性进步:一种新的植入物将思想转化为3秒钟内的实时演讲,这是瘫痪自然交流的关键步骤。
这项发表在自然神经科学上的研究表明了AI算法如何…pic.twitter.com/XdGhrBlU63
-Chubby♨️(@kimmonismus)2025年4月1日
一名妇女因在近二十年的沉默中通过开发的实验性脑部计算机界面而陷入困境,并通过加州大学伯克利分校和加州大学旧金山加州大学旧金山加州大学的研究人员进行了近二十年的沉默。这项研究于3月31日发表在《自然神经科学》上,利用人工智能将参与者的思想(普遍被称为“安妮”)转化为实时的自然言论。
Anumanchipalli解释说,界面使用放置在大脑语音中心的电极网格读取神经信号。他补充说,很明显,像ALS,脑干中风(如在Anne Case中)或受伤一样,身体变得难以接近,并且该人“锁定在”,认知上完好无损但无法动作或说话。 Anumanchipalli指出,尽管在创建人工四肢方面取得了重大进展,但恢复语音仍然更加复杂。
“与视觉,运动或饥饿(与其他物种相比)不同,它使我们与众不同。仅此一项就使它成为一个引人入胜的研究主题。”
–Gopala Anumanchipalli
但是,Anumanchipalli承认,神经元和皮质组织的智能行为如何仍然是其中的一个大型未知数之一。该研究使用BCI在Anne Brain电信号和计算机之间创建了直接途径。
新的BCI设备改进了延迟的先前版本
美国研究人员的创新方法消除了令人沮丧的延迟,通过以80毫秒的增量分析她的大脑活动,并将其转化为综合版本的声音,从而困扰着该技术的先前版本。许多BCI语音翻译项目生产最近的积极结果,每个旨在减少从思想中产生语音所花费的时间。
根据科学警报,大多数现有的BCI方法都需要在软件破译其含义之前要考虑“一定数量的文本”,这可能会大大拖放语音启动和发声之间的秒数。
加州大学伯克利分校和旧金山的研究人员发表的报告透露,提高语音综合延迟和解码速度对于动态对话和流利的交流至关重要。联合UC团队解释说BCI语音延误是由播放所需的额外时间语音综合以及听众理解合成音频所花费的时间的复杂性。
据报道,大多数现有的方法都依靠“说话者”来培训界面,通过公开发声的动作,这将是一个挑战,这将是一个挑战,在为无法实践或总是很难说话的个人提供足够的数据时,这将是一个挑战。为了克服这两个障碍,加州大学研究人员在47岁的参与者“感觉运动皮层活动”上训练了一个灵活的,深入的神经网络,而她默默地说出了100多个单词的词汇。
加密大都会学院:想在2025年养活您的钱吗?在即将到来的WebClass中学习如何使用Defi进行操作。保存您的位置
No comments yet