✨这是对下方论文的AI生成解释。它不是由作者撰写或认可的。如需技术准确性,请参阅原始论文。 阅读完整免责声明
Each language version is independently generated for its own context, not a direct translation.
以下是论文《如果你非常聪明,没人知道你用过它》的通俗解读,采用日常语言和生活类比进行说明。
宏观图景:办公室的“秘密武器”
想象一下,一种全新的、神奇的厨房小工具出现在每个办公室里。它能在一秒钟内撰写邮件、修复代码并起草报告。这就是生成式人工智能(GenAI)。
研究人员想知道:办公室职员实际上是如何学会使用这种工具的?他们会去上课吗?会向老板请教吗?还是靠自己去摸索?
他们采访了 19 位不同的知识工作者(包括律师、程序员、营销人员和研究人员)以寻找答案。他们的发现有点像“秘密特工”游戏与“烹饪课程”的结合。
员工看重的两项核心技能
研究发现,员工正试图同时掌握两种截然不同的技能:
1. “探索者”技能(了解工具能做什么)
员工希望了解人工智能能做哪些酷事。他们想找到使用它的新方法,让工作更轻松。
- 他们如何学习: 他们主要通过彼此交流来学习。这就像一场百家宴,每个人都带来一道新菜。一个人说:“嘿,我用 AI 写了一首诗,”另一个人说:“哦,我用它来修复电子表格!”
- 结果: 这种分享帮助每个人更聪明地了解该工具的能力。
2. “隐形魔术师”技能(隐藏你使用了该工具)
这是令人惊讶的部分。员工也看重能够如此出色地使用 AI,以至于没人能看出你用过它。
- 他们为什么要这样做?
- 害怕被评判: 有些人担心老板或同事会想:“哦,这不是你自己做的,你只是问了机器人。”他们感到羞愧,或害怕被视为懒惰。
- 证明专业能力: 另一些人这样做是为了炫耀自己的聪明。如果你使用 AI 但将输出编辑得完美无缺,看起来完全是人类完成的,你就会因被视为“天才”而获得赞誉。正如一位参与者所说:“如果你非常聪明,没人知道你用过它。”
- 类比: 想象一位厨师使用高科技的副厨机器人来切菜。如果厨师藏起机器人,并像自己亲手切菜一样端上菜肴,他就会因刀工精湛而获得起立鼓掌。如果他们承认使用了机器人,人们可能会说:“嗯,那其实不是你做的菜。”
问题所在:“沉默的厨房”
这里有个陷阱。当每个人都试图成为“隐形魔术师”时,学习过程就会发生糟糕的变化。
- 悖论: 要想学会如何最好地使用工具,你需要与他人分享你的错误和技巧(即“探索者”技能)。但是,为了显得聪明并避免被评判,你会完全隐藏你使用过该工具的事实(即“隐形魔术师”技能)。
- 结果: 厨房变得寂静无声。没人承认自己在使用这个小工具。没人分享他们的“秘密食谱”,因为他们害怕被评判,或者因为他们想保持自己的“天才”地位。
- 后果: 尽管每个人都在使用工具,但公司却不知道它是如何被使用的,犯了什么错误,或者如何教导新员工。这创造了一种秘密文化,而非团队合作文化。
“工作垃圾”与“杰作”
论文还指出,有时人们隐藏 AI 是因为原始输出实际上很糟糕。
- “工作垃圾”: 如果你只是复制粘贴 AI 说的话,它听起来往往很机械,使用奇怪的词汇(如“深入探讨”或“挂毯”),并且缺乏真正的人类洞察力。这就像端上一份冷冻晚餐,却称之为美食大餐。
- 解决方法: 熟练的员工会对 AI 进行“批判”。他们修正奇怪的词汇,并加入自己的人类风格。他们隐藏 AI 不仅仅是为了看起来很酷,更是为了确保最终产品实际上是好的。然而,通过隐藏这一过程,他们错失了教导他人如何修正它的机会。
作者的建议
研究人员并没有说“停止使用 AI"。相反,他们建议进行一些改变,使办公室成为更好的学习场所:
- 停止羞耻感: 管理者需要创造一个安全空间,让承认使用 AI 不再被视为犯罪。说“我用机器人起草了这个,以下是我如何改进它的”是可以的。
- 庆祝“如何”,而不仅仅是“什么”: 不要只看最终报告,而要讨论过程。分享“提示词”(给 AI 的指令)以及所做的编辑。
- 让分享变得有回报: 就像人们在社交媒体上获得“点赞”一样,公司可以奖励那些分享 AI 技巧和窍门的人,让透明变得酷,而不是让保密变得酷。
总结
该论文认为,虽然办公室职员在熟练使用 AI 方面变得非常擅长,但他们也在隐藏它方面变得非常擅长。他们这样做是为了显得聪明并避免被评判。但这种秘密阻碍了整个团队共同学习。要解决这个问题,工作场所需要停止将 AI 的使用视为秘密,转而将其视为一种可以公开学习、人人共享的技能。
Each language version is independently generated for its own context, not a direct translation.
以下是论文《如果你非常聪明,没人知道你用过它:工作场所中生成式人工智能素养发展的社会动态》的详细技术总结。
1. 问题陈述
尽管生成式人工智能(GenAI)正在迅速改变知识型工作,但现有的人工智能素养研究缺乏实证洞察,无法揭示知识工作者如何在工作场所复杂的社会动态中发展能力。当前的框架通常侧重于技术技能或正规教育,而忽视了专业人士所使用的非结构化、非正式的学习过程。
已识别的关键差距包括:
- “隐藏”现象:由于社会污名或害怕被评判,工作者往往隐瞒 GenAI 的使用情况,但这种行为对组织学习和透明度的影响尚不明确。
- 能力定义:尚不清楚工作者在实践中最看重哪些具体能力(技术能力与社会技术能力)。
- 学习策略:对于工作者如何在学习同事与维护可能需要掩盖 AI 辅助的专业身份之间的张力中 navigate(应对/周旋),目前了解有限。
2. 方法论
本研究采用定性方法,调查 GenAI 采纳过程中的信念、策略和社会动态。
- 参与者:来自不同行业(IT、法律、创意产业、学术界、人力资源、金融等)的 19 名知识工作者。
- 招募:参与者通过 Prolific 平台招募,筛选标准如下:
- 就职于快速采纳 GenAI 的行业。
- 每周至少使用 GenAI 一次用于工作相关目的。
- 在当前职位拥有超过 1 年的经验。
- 在明确禁止 GenAI 的环境之外工作(或政策不明确)。
- 数据收集:2024 年 12 月至 2025 年 1 月期间,通过 Microsoft Teams 在线进行半结构化访谈(50–60 分钟)。
- 分析:
- 立场性:研究团队采取批判现实主义立场,承认解释反映的是主观体验和社会背景,而非客观现实。
- 主题分析:采用模板方法,利用两个现有的 AI 素养框架(Pinski & Benlian; Annapureddy 等人)和COM-B 模型(能力、机会、动机)作为初始编码的支架,以分析学习行为。
- 严谨性:多位作者审查了编码和主题,以确保反思性和批判性反思。
3. 主要贡献
该论文为人机交互(HCI)和 AI 素养领域做出了三项主要贡献:
- 实证基础:详细描述了 19 名多样化的知识工作者如何实践和协商 GenAI 素养,超越了理论框架,转向现实世界的应用。
- 重构"AI 隐藏”:挑战了将隐藏 AI 使用 solely(仅仅)归因于羞耻的主流观点。研究发现,成功抹去 GenAI 使用的线索通常被视为对领域专业知识的积极验证。然而,这种行为造成了一种悖论:它向同行传递了能力的信号,但同时也减少了知识共享和透明的机会。
- 框架扩展:通过强调社会技术能力的关键作用,扩展了现有的 AI 素养框架。该研究认为,人类利益相关者不仅是学习的资源,也是塑造使用模式的社会影响来源,因此需要新的设计考量以促进公开对话和披露。
4. 主要结果
研究确定了两种核心能力和两种相应的学习策略,揭示了个人身份与集体学习之间的核心张力。
A. 核心能力
- 技术能力(用例意识):
- 工作者重视识别 GenAI 新颖应用的能力,以获得竞争优势。
- 这种意识通常由对失业的恐惧或希望领先于行业趋势的渴望所驱动。
- 社会技术能力(线索移除):
- 工作者发展出检测和移除表明 GenAI 使用的“迹象”(例如:特定的措辞如“深入探讨”、代码中过多的注释、缺乏上下文)的能力。
- 移除动机:
- 批判/质量控制:移除通用或低质量的输出,以确保工作符合专业标准。
- 专家身份验证:成功掩盖 AI 使用表明工作者拥有深厚的领域知识,将他们与那些盲目依赖 AI 的人区分开来。
- 隐瞒/污名:避免受到老一辈或保守管理层的负面评判。
B. 学习策略
- 向他人学习:
- 非正式的知识共享(同事、LinkedIn、社交媒体)对于发现新用例和解决知识差距至关重要。
- 然而,这通常是策略性的;工作者可能会分享知识以规范 AI 的使用或寻求验证,但可能会隐瞒具体细节以保持竞争优势。
- 动手经验:
- 能力主要是隐性的,通过试错发展而来。
- 工作者必须学会评估特定情境的适用性,理解模型的局限性(幻觉),并发展元认知技能以有效地构建提示词。
C. 核心张力
研究揭示了一个悖论:虽然向他人学习对于培养技术意识至关重要,但通过“线索移除”来验证自身专业知识的动力却 actively(主动地)抑制了透明度。
- 成功隐藏 AI 使用的工作者会被誉为专家。
- 这种行为造成了“组织沉默”,即 AI 使用普遍存在但未被承认,阻碍了最佳实践的分享、错误检测和集体意义构建。
- 披露往往被避免,原因是感知到同事的冷漠(“只要把活干完就行”)或害怕社会污名。
5. 意义与启示
研究结果对人机交互设计、组织管理和 AI 素养框架具有重大意义。
对组织而言:
- 开放文化:领导者必须培养心理安全感,以减少与 AI 使用相关的评判恐惧。被动允许 AI 是不够的;需要积极的对话来打破“组织沉默”。
- 激励共享:组织应奖励 GenAI 工作流、提示词和经验教训的分享,将这些视为有价值的智力资产而非秘密。
- 政策清晰化:需要明确的披露政策,以减少不确定性并鼓励负责任的使用。
对设计师(HCI)而言:
- 支持披露:设计工具,使分享“用户生成知识”(例如:提示词、工作流)更容易,同时不使使用者暴露于污名之下。
- 赞赏系统:实施类似于开源社区“点赞”或“拥抱”的机制,以积极强化 GenAI 产物的分享。
- 元认知焦点:超越简单的提示词分享,帮助用户理解成功互动背后的策略,从而促进更深入的学习。
对 AI 素养框架而言:
- 素养模型必须进化以包含社会技术能力,认识到社会背景(声誉、身份、同行评判)与技术技能一样,对于决定 AI 如何被采纳和使用至关重要。
- “素养”的定义必须考虑到个人身份工作与集体学习之间的张力。
总之,该论文认为,工作场所中真正的 GenAI 素养不能仅通过技术培训来实现。它需要解决驱动工作者隐藏其工具使用的社会动态,从而破坏对快速技术变革进行可持续适应所必需的透明度和协作学习。
每周获取最佳 computer science 论文。
受到斯坦福、剑桥和法国科学院研究人员的信赖。
请查收邮箱确认订阅。
出了点问题,再试一次?
无垃圾邮件,随时退订。