Investigating neural speech processing with functional near infrared spectroscopy: considerations for temporal response functions

这项研究证实,将时间响应函数(TRF)分析框架应用于连续语音感知任务中的功能性近红外光谱(fNIRS)数据是可行且有效的,其预测相关性显著高于零分布、与脑电图/脑磁图研究相当,且优于传统的广义线性模型方法。

原作者: Wilroth, J., Sotero Silva, N., Tafakkor, A., de Avo Mesquita, B., Ip, E. Y. J., Lau, B. K., Hannah, J., Di Liberto, G. M.

发布于 2026-03-23
📖 1 分钟阅读☕ 轻松阅读
⚕️

这是一篇未经同行评审的预印本的AI生成解释。这不是医疗建议。请勿根据此内容做出健康决定。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

想象一下,你正在尝试听懂一个复杂的交响乐,但你的耳朵(大脑)发出的信号非常微弱,而且容易被周围的噪音干扰。过去,科学家们主要用两种“超级耳机”来监听大脑:一种是EEG(脑电图),它像是一个反应极快但有点模糊的“高速摄像机”;另一种是MEG(脑磁图),它像是一个既快又清晰的“高清摄像机”,但非常昂贵且笨重。

现在,科学家发现了一种新的“听诊器”,叫做fNIRS(功能性近红外光谱技术)。它就像给大脑戴了一顶舒适的“智能帽子”。这顶帽子不怕你动来动去(抗干扰强),而且能戴在更自然的环境里(比如一边聊天一边听故事)。但是,这顶帽子有一个小缺点:它捕捉到的信号是“慢动作”的,就像看一部慢放的电影,而不是实时直播。

这篇论文就在探讨一个有趣的问题:
既然我们能用“高速摄像机”(EEG/MEG)来实时分析大脑如何跟随说话者的语速(这叫时间响应函数 TRF,你可以把它想象成大脑和说话者之间的“同步舞步”),那么,对于反应比较慢的“智能帽子”(fNIRS),我们还能用同样的方法去分析吗?

科学家们做了什么?
他们让 8 个人戴着这顶“智能帽子”听故事,同时记录大脑的反应。然后,他们尝试用一种数学方法(TRF 模型),看看能不能从这些“慢动作”的大脑信号中,精准地预测出大脑是如何跟随语言节奏的。

他们发现了什么惊喜?

  1. 效果惊人地好:虽然 fNIRS 的信号比较慢,但用这种方法分析出来的结果,竟然和那些反应极快的“高速摄像机”(EEG)甚至“高清摄像机”(MEG)的效果一样好!就像是用慢动作回放也能完美还原出舞蹈的精髓。
  2. 不是瞎蒙的:他们做了严格的测试,证明这些结果不是随机碰巧发生的,而是真实的大脑反应。
  3. 比老方法更聪明:这种新的“同步舞步”分析法,比以前常用的传统方法(GLM)能捕捉到更多大脑活动的细节,就像是用高分辨率地图代替了粗糙的草图。

简单来说,这篇论文的结论是:
以前大家觉得 fNIRS 这种“慢速”技术不适合用来分析连续的语言交流,但这项研究证明,只要用对方法(TRF 模型),这顶“智能帽子”完全有能力捕捉到大脑在听故事时的精彩瞬间。这意味着未来我们可以更灵活、更舒适地研究人类是如何在自然对话中理解语言的,而不必把受试者绑在昂贵的机器上。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →