Neural network-based encoding in free-viewing fMRI with gaze-aware models

该研究提出了一种结合眼动数据的“注视感知”编码模型,利用 StudyForrest 数据集在无需中央注视的自然观看条件下,仅用传统模型 1/112 的参数量便实现了同等甚至更优的 fMRI 预测性能,从而推动了更具生态效度的视觉神经编码研究。

原作者: Gozukara, D., Ahmad, N., Seeliger, K., Oetringer, D., Geerligs, L.

发布于 2026-03-11
📖 1 分钟阅读☕ 轻松阅读
⚕️

这是一篇未经同行评审的预印本的AI生成解释。这不是医疗建议。请勿根据此内容做出健康决定。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

这篇文章介绍了一项关于**“大脑如何看世界”**的有趣研究。简单来说,科学家们发现了一种更聪明、更省资源的方法,来预测我们的大脑在看电影时,哪些区域会被激活。

为了让你更容易理解,我们可以把这项研究想象成**“在图书馆里找书”**的故事。

1. 旧方法:像“盲目扫荡”的图书管理员

以前的科学家在研究大脑视觉时,通常要求被试者死死盯着屏幕中央的一个点(就像盯着图书馆书架上的一个固定标签),不能乱看。

  • 问题所在:这很不自然!我们在生活中看东西时,眼睛会不停地转动,扫视感兴趣的画面。强迫盯着不动,就像强迫你在图书馆里只盯着一个角落看,既累人,又无法反映真实的阅读体验。
  • 技术瓶颈:为了预测大脑反应,以前的模型需要把整张电影画面的所有细节(比如整个书架的所有书)都塞进电脑里进行分析。这就像图书管理员为了找一本书,把整个图书馆的所有书都搬出来检查一遍。这不仅极其耗费电脑算力(需要超级计算机),而且数据量巨大,很难处理。

2. 新方法:像“跟随目光”的聪明助手

这篇论文提出了一种**“眼动感知”(Gaze-Aware)**的新模型。

  • 核心创意:既然我们知道眼睛在看哪里,为什么还要分析眼睛没看的地方呢?
  • 比喻:想象你有一个超级聪明的图书管理员助手
    • 旧助手:不管你看哪,他都要把整层书架的书都搬出来给你看,然后问:“这些书里哪本让你大脑兴奋?”(数据量太大,效率低)。
    • 新助手:他戴着一副智能眼镜,能实时看到你眼睛盯着哪本书。他只把那一本书(或者那一小片区域)拿给你看,然后预测你的反应。
  • 怎么做到的
    1. 他们给被试者戴上了眼动仪,记录看电影时眼睛的每一个停留点(注视点)。
    2. 利用一种叫**CNN(卷积神经网络)**的 AI 技术(它像大脑一样能识别图像特征),提取电影画面的特征。
    3. 关键一步:新模型只提取眼睛盯着的那一小块区域的特征,而忽略周围模糊的背景。

3. 惊人的成果:少即是多

这项研究得出了两个非常棒的结果:

  • 效果一样好,但更轻量
    新模型(只盯着看的地方)的预测能力,竟然和旧模型(盯着整张图)一样好!

    • 比喻:新助手只需要搬1 本书就能猜对,而旧助手要搬112 本书才能猜对同样的结果。
    • 意义:这意味着模型需要的参数减少了 112 倍。以前需要超级计算机才能跑动的模型,现在普通的笔记本电脑就能轻松处理。这让研究变得便宜、快速,更容易普及。
  • 越“动”越聪明
    研究发现,对于那些眼睛动得比较活跃、喜欢到处看的人,新模型的效果特别好。

    • 比喻:如果你是一个喜欢到处探索的读者,新助手能精准捕捉你的兴趣点;而旧助手还在笨拙地搬运整层书架,反而显得多余。这说明新模型更符合人类自然、动态的观看习惯。

4. 为什么这很重要?

这项研究不仅仅是为了省电脑内存,它代表了科学思维的转变:

  • 更真实:它允许我们在不限制眼睛活动的情况下研究大脑。这意味着未来我们可以研究人们在玩 VR 游戏、开车、或者在虚拟世界里探索时的大脑活动,而不仅仅是盯着屏幕发呆。
  • 更高效:因为数据量变小了,我们甚至可以用更少的数据训练出更精准的模型,让个性化的人脑研究成为可能。

总结

这就好比以前我们要了解一个人喜欢什么书,得把他读过的所有书都列个清单;现在,我们只需要知道他眼睛盯着哪几页,就能精准地猜出他的喜好,而且省下了 99% 的力气。

这项研究告诉我们:在理解大脑时,顺应自然的“眼动”,比强迫“静止”更聪明、更高效。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →