Perceptions of Artificial Intelligence in the Editorial and Peer Review Process: A Cross-Sectional Survey of Traditional, Complementary, and Integrative Medicine Journal Editors

这项针对传统、补充及整合医学期刊编辑的横断面调查显示,尽管编辑们普遍认可人工智能在语言校对和伦理筛查等常规编辑工作中的潜力,但受限于缺乏具体政策、培训及伦理障碍,其实际采纳率仍然较低。

Ng, J. Y., Bhavsar, D., Krishnamurthy, M., Dhanvanthry, N., Fry, D., Kim, J. W., King, A., Lai, J., Makwanda, A., Olugbemiro, P., Patel, J., Virani, I., Ying, E., Yong, K., Zaidi, A., Zouhair, J., Lee, M. S., Lee, Y.-S., Nesari, T. M., Ostermann, T., Witt, C. M., Zhong, L., Cramer, H.

发布于 2026-03-04
📖 1 分钟阅读☕ 轻松阅读
⚕️

这是一篇未经同行评审的预印本的AI生成解释。这不是医疗建议。请勿根据此内容做出健康决定。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一次对传统、补充和整合医学(TCIM)期刊编辑们的“大摸底”。

想象一下,学术出版界是一个巨大的图书馆,而 TCIM 期刊(比如研究针灸、草药、瑜伽的杂志)是这个图书馆里一个非常特别的专区。这个专区里的书(论文)内容五花八门,既有现代科学数据,又有古老的文化智慧,所以整理和审核起来特别费脑子。

现在,人工智能(AI) 像是一个刚入职的、超级聪明的机器人实习生,它想帮忙整理这些书。这篇研究就是去问问这些负责管理专区的“馆长”(编辑们):你们觉得这个机器人实习生怎么样?敢不敢用它?

以下是这篇研究的“大白话”解读:

1. 编辑们都知道这个机器人,但很少真的用它干活

  • 现状: 大约 70% 的编辑都知道 AI 聊天机器人(比如 ChatGPT)的存在,甚至很多人自己平时都在用。
  • 尴尬点: 但是,当他们穿上“编辑”的制服,面对审稿任务时,超过 60% 的人说:“我从来没让 AI 帮我干过编辑的活。”
  • 比喻: 就像大家都知道微波炉能热饭,但很多老厨师在正式做宴席时,还是坚持自己用锅炒,不敢把菜放进微波炉里。

2. 编辑们觉得机器人能干什么?(能做的 vs. 不能做的)

编辑们给 AI 的能力画了个“能力圈”:

  • ✅ 擅长的事(大家很欢迎):
    • 改错别字和语法: 就像给文章做“美容”,把语言修饰得更漂亮(81% 的人支持)。
    • 查抄袭和伦理问题: 像安检员一样,快速扫描有没有偷别人的东西(67% 的人支持)。
  • ❌ 不擅长的事(大家很怀疑):
    • 和人打交道: 比如回复作者的邮件、处理审稿人的情绪。编辑们觉得 AI 太冷冰冰,不懂人情世故,容易把天聊死。
    • 做复杂决定: 比如判断一个研究到底有没有价值。编辑们担心 AI 会“一本正经地胡说八道”(幻觉),或者因为训练数据的问题产生偏见。

3. 最大的痛点:没人教,也没人管

  • 缺乏培训: 大多数编辑说,他们的杂志社没有提供过任何关于如何使用 AI 的培训
  • 缺乏规则: 超过 65% 的编辑表示,杂志社没有制定关于 AI 使用的具体政策
  • 比喻: 这就像给编辑们发了一把新式激光枪(AI 工具),但既没有说明书,也没有安全守则,大家只能拿着枪发呆,或者偷偷用,生怕用错了出事。
  • 需求: 尽管现在用得少,但近一半的编辑表示,如果要有 AI 帮忙,他们非常需要接受大量的培训。

4. 编辑们的内心戏:既期待又害怕

  • 期待: 大家都承认,AI 未来肯定会成为学术出版的重要角色。它能帮编辑省掉很多重复的体力活(比如整理数据、检查格式),让编辑有更多时间去思考那些真正需要人类智慧的问题。
  • 害怕:
    • 隐私泄露: 把还没发表的秘密论文喂给 AI,会不会被 AI 学走了?
    • 责任归属: 如果 AI 审错了稿,导致坏文章发表了,谁负责?是编辑?是作者?还是写 AI 的公司?
    • 失去灵魂: 担心过度依赖 AI 会让学术研究变得千篇一律,失去人类独特的洞察力和创造力。

5. 总结:我们需要“带刹车”的自动驾驶

这篇研究的核心结论是:
TCIM 领域的编辑们不排斥 AI,他们看到了 AI 能帮大忙(特别是处理文字和基础检查)。但是,目前不敢放手去用,主要是因为缺乏规则、缺乏培训,以及担心伦理和安全问题

未来的建议:
就像给自动驾驶汽车装上刹车交通法规一样,期刊和出版社需要:

  1. 定规矩: 明确告诉编辑和作者,AI 能用来做什么(比如改语法),绝对不能用来做什么(比如代替审稿人做决定)。
  2. 搞培训: 教编辑们怎么安全、负责任地使用这个“机器人实习生”。
  3. 保底线: 无论 AI 多聪明,最终拍板定案的“人类大脑”必须还在,要保留人类对学术质量的最终判断权。

一句话总结:
AI 是个好帮手,能帮编辑们干杂活,但现在的编辑们还在观望,等着出版社给个“安全说明书”和“操作培训”,才敢放心地让它上岗。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →