Each language version is independently generated for its own context, not a direct translation.
这篇论文就像是一次对传统、补充和整合医学(TCIM)期刊编辑们的“大摸底”。
想象一下,学术出版界是一个巨大的图书馆,而 TCIM 期刊(比如研究针灸、草药、瑜伽的杂志)是这个图书馆里一个非常特别的专区。这个专区里的书(论文)内容五花八门,既有现代科学数据,又有古老的文化智慧,所以整理和审核起来特别费脑子。
现在,人工智能(AI) 像是一个刚入职的、超级聪明的机器人实习生,它想帮忙整理这些书。这篇研究就是去问问这些负责管理专区的“馆长”(编辑们):你们觉得这个机器人实习生怎么样?敢不敢用它?
以下是这篇研究的“大白话”解读:
1. 编辑们都知道这个机器人,但很少真的用它干活
- 现状: 大约 70% 的编辑都知道 AI 聊天机器人(比如 ChatGPT)的存在,甚至很多人自己平时都在用。
- 尴尬点: 但是,当他们穿上“编辑”的制服,面对审稿任务时,超过 60% 的人说:“我从来没让 AI 帮我干过编辑的活。”
- 比喻: 就像大家都知道微波炉能热饭,但很多老厨师在正式做宴席时,还是坚持自己用锅炒,不敢把菜放进微波炉里。
2. 编辑们觉得机器人能干什么?(能做的 vs. 不能做的)
编辑们给 AI 的能力画了个“能力圈”:
- ✅ 擅长的事(大家很欢迎):
- 改错别字和语法: 就像给文章做“美容”,把语言修饰得更漂亮(81% 的人支持)。
- 查抄袭和伦理问题: 像安检员一样,快速扫描有没有偷别人的东西(67% 的人支持)。
- ❌ 不擅长的事(大家很怀疑):
- 和人打交道: 比如回复作者的邮件、处理审稿人的情绪。编辑们觉得 AI 太冷冰冰,不懂人情世故,容易把天聊死。
- 做复杂决定: 比如判断一个研究到底有没有价值。编辑们担心 AI 会“一本正经地胡说八道”(幻觉),或者因为训练数据的问题产生偏见。
3. 最大的痛点:没人教,也没人管
- 缺乏培训: 大多数编辑说,他们的杂志社没有提供过任何关于如何使用 AI 的培训。
- 缺乏规则: 超过 65% 的编辑表示,杂志社没有制定关于 AI 使用的具体政策。
- 比喻: 这就像给编辑们发了一把新式激光枪(AI 工具),但既没有说明书,也没有安全守则,大家只能拿着枪发呆,或者偷偷用,生怕用错了出事。
- 需求: 尽管现在用得少,但近一半的编辑表示,如果要有 AI 帮忙,他们非常需要接受大量的培训。
4. 编辑们的内心戏:既期待又害怕
- 期待: 大家都承认,AI 未来肯定会成为学术出版的重要角色。它能帮编辑省掉很多重复的体力活(比如整理数据、检查格式),让编辑有更多时间去思考那些真正需要人类智慧的问题。
- 害怕:
- 隐私泄露: 把还没发表的秘密论文喂给 AI,会不会被 AI 学走了?
- 责任归属: 如果 AI 审错了稿,导致坏文章发表了,谁负责?是编辑?是作者?还是写 AI 的公司?
- 失去灵魂: 担心过度依赖 AI 会让学术研究变得千篇一律,失去人类独特的洞察力和创造力。
5. 总结:我们需要“带刹车”的自动驾驶
这篇研究的核心结论是:
TCIM 领域的编辑们不排斥 AI,他们看到了 AI 能帮大忙(特别是处理文字和基础检查)。但是,目前不敢放手去用,主要是因为缺乏规则、缺乏培训,以及担心伦理和安全问题。
未来的建议:
就像给自动驾驶汽车装上刹车和交通法规一样,期刊和出版社需要:
- 定规矩: 明确告诉编辑和作者,AI 能用来做什么(比如改语法),绝对不能用来做什么(比如代替审稿人做决定)。
- 搞培训: 教编辑们怎么安全、负责任地使用这个“机器人实习生”。
- 保底线: 无论 AI 多聪明,最终拍板定案的“人类大脑”必须还在,要保留人类对学术质量的最终判断权。
一句话总结:
AI 是个好帮手,能帮编辑们干杂活,但现在的编辑们还在观望,等着出版社给个“安全说明书”和“操作培训”,才敢放心地让它上岗。
Each language version is independently generated for its own context, not a direct translation.
以下是基于 Ng 等人论文《传统、补充与整合医学期刊编辑对人工智能在编辑和同行评审过程中感知的横断面调查》的详细技术总结:
1. 研究背景与问题 (Problem)
- 背景:人工智能聊天机器人(AICs)正逐渐融入学术出版流程,有望自动化常规编辑任务并优化工作流。然而,在传统、补充与整合医学(TCIM)领域,由于研究方法的多样性、文化背景知识的嵌入性以及跨学科性质,其编辑和同行评审过程尤为复杂。
- 核心问题:尽管 AI 有潜力解决 TCIM 领域的挑战(如评估复杂方法、确保证据可重复性),但目前缺乏关于 TCIM 期刊编辑如何感知 AI 在同行评审和编辑过程中角色的实证数据。
- 研究缺口:现有的文献未充分记录 TCIM 编辑对 AI 的采用情况、感知到的益处与挑战、伦理担忧以及未来的角色预期。这种知识空白阻碍了针对 TCIM 需求定制 AI 工具的开发。
2. 研究方法 (Methodology)
- 研究设计:匿名在线横断面调查(Cross-sectional survey)。
- 样本与抽样:
- 目标群体:115 本 TCIM 期刊的编辑委员会成员(包括主编、副主编及其他直接参与同行评审或编辑流程的成员)。
- 排除标准:仅负责格式排版、技术编辑或统计编辑等非内容管理的人员。
- 数据收集:通过手动从期刊网页收集编辑姓名和邮箱,发送 SurveyMonkey 邀请。
- 样本量:发出 5119 份邀请,收到 237 份回复,其中 217 份符合资格(有效回复率约 4.2%,符合率 91.6%)。
- 调查工具:
- 包含 38 个问题,涵盖人口统计学、AI 熟悉度与使用情况、感知益处与挑战、伦理担忧及未来展望。
- 问卷经过领域专家审查和预测试,以确保表面效度。
- 数据分析:
- 定量数据:使用描述性统计(比率、百分比)。
- 定性数据:对开放式回答进行归纳编码和主题分析(Inductive coding and thematic analysis)。
- 报告标准:遵循 CHERRIES 和 STROBE 指南。
3. 主要发现与结果 (Key Results)
- 人口统计学特征:
- 参与者多为男性(54.9%),年龄主要集中在 46 岁以上(46-55 岁占 26.4%,65 岁以上占 25.9%)。
- 地理分布:美洲(40.4%)、欧洲(23.3%)和东南亚(15.0%)为主。
- 职业背景:70% 为大学/学术机构教员,主要编辑临床研究手稿(49.2%)。
- AI 熟悉度与使用情况:
- 熟悉度:70.0% 的受访者表示熟悉 AI 工具,83.7% 曾使用过 AI 聊天机器人(如 ChatGPT)。
- 编辑工作中的应用:尽管熟悉,但61.0%的受访者表示从未在编辑角色中使用过 AI 聊天机器人。
- 未来意愿:41.1% 的受访者认为未来在编辑工作中使用 AI 的可能性“不太可能”或“非常不可能”。
- 培训与政策现状:
- 培训缺失:65.3% 的受访者表示其所属期刊或出版社未提供 AI 工具培训。
- 政策缺失:30.1% 表示没有 AI 使用政策,46.0% 表示不确定。
- 培训需求:49.1% 的编辑认为需要“大量”培训才能有效使用 AI,63.0% 表示愿意学习。
- 感知到的益处与挑战:
- 最支持的用途:语言与语法检查(81.0% 认为有帮助)、抄袭/伦理筛查(67.4%)。
- 最不支持的用途:处理作者/审稿人/读者的咨询(39.0% 认为无帮助)、直接沟通稿件状态(33.0% 认为无帮助)。
- 主要挑战:
- 偏见与数据:82.1% 担心 AI 会延续训练数据中的偏见。
- 缺乏人类洞察:79.3% 认为 AI 缺乏解释上下文和情感互动的能力。
- 伦理问题:79.1% 担忧问责制、透明度和责任归属问题。
- 实际障碍:需要额外培训、初始时间和资源投入、用户接受度问题。
- 未来展望:
- 82.8% 的受访者认为 AI 对学术出版的未来“重要”或“非常重要”。
- 尽管当前使用率低,但大多数编辑预期 AI 将在未来发挥重要作用,同时强调需要明确的指导方针。
4. 主要贡献 (Key Contributions)
- 填补领域空白:这是首项专门针对 TCIM 领域编辑对 AI 在出版流程中感知的系统性调查,揭示了该特定领域(涉及文化嵌入知识和异质方法论)的独特视角。
- 揭示“认知 - 行为”差距:研究清晰地展示了编辑们虽然熟悉 AI 且认可其潜力,但在实际编辑工作中(特别是涉及判断和人际互动的任务)的采用率极低。
- 识别关键障碍:不仅指出了技术限制,还深入分析了制度性障碍(缺乏政策、培训)和伦理障碍(偏见、问责、保密性),特别是针对 TCIM 领域特有的文化敏感性需求。
- 定性洞察:通过主题分析,提炼出“禁止 AI 用于作者署名或同行评审”、“仅限语言/语法使用”、“隐私与可靠性担忧”等关键主题,为制定具体政策提供了依据。
5. 研究意义与启示 (Significance)
- 政策制定指导:研究结果表明,TCIM 期刊急需制定明确的 AI 使用政策,特别是关于何时可以使用 AI(如语言润色)以及何时禁止使用(如同行评审决策、作者署名)。
- 培训需求:鉴于编辑对 AI 培训的强烈需求(近 90% 认为需要培训),期刊出版商和学术机构应开发针对性的教育项目,重点解决伦理使用、偏见识别和工具整合问题。
- 技术发展方向:AI 工具开发者应关注 TCIM 领域的特殊性,开发能够处理文化背景知识、支持多语言且具备高透明度的工具,而非仅仅通用的文本处理工具。
- 维护学术诚信:研究强调了在引入 AI 时必须保持“人类决策”的核心地位,以防止幻觉(Hallucinations)、偏见和过度自动化损害 TCIM 研究的严谨性和完整性。
- 全球影响:该研究为更广泛的学术出版界提供了参考,表明在新兴技术整合过程中,建立信任、透明度和负责任的使用框架比单纯的技术自动化更为关键。
总结:Ng 等人的研究指出,虽然 TCIM 编辑普遍认可 AI 在提升效率和辅助基础任务(如语言检查)方面的潜力,但由于缺乏政策指导、培训不足以及对伦理和准确性(特别是文化语境下的准确性)的担忧,AI 在核心编辑和同行评审决策中的实际应用仍然非常有限。未来的成功整合将依赖于针对性的培训、清晰的治理框架以及尊重 TCIM 领域独特性的技术解决方案。