Language Shapes Mental Health Evaluations in Large Language Models

该研究发现,GPT-4o 和 Qwen3 等大语言模型在中文提示下相较于英文提示会表现出更高的心理健康污名化倾向,并在污名检测及抑郁严重程度分类等下游任务中产生系统性偏差,表明语言语境会显著塑造模型的评估模式并改变决策阈值。

Jiayi Xu, Xiyang Hu

发布于 2026-03-10
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是在给两个超级聪明的"AI 心理医生”(GPT-4o 和 Qwen3)做了一场双语体检

研究人员发现了一个非常有趣且重要的现象:同一个 AI,如果你用中文问它,它和用英文问它,对待“心理健康”问题的态度竟然会完全不一样。

为了让你更容易理解,我们可以把这两个 AI 想象成两个拥有双重人格的**“翻译官兼心理顾问”**。

1. 核心发现:语言是“变色龙”的伪装

想象一下,你有一个朋友,他平时很开明、很包容。

  • 当你用英语跟他聊天时,他表现得像个**“现代开明派”**:对抑郁症患者很理解,觉得大家都不该有偏见,甚至觉得病情可能比实际更严重一点(更谨慎)。
  • 当你突然切换成中文跟他聊天时,他瞬间变成了一个**“传统保守派”**:对抑郁症患者更容易产生误解,觉得“这没什么大不了的”或者“这人就是太脆弱”,甚至觉得病情没那么严重。

论文的核心结论就是:语言不仅仅是翻译工具,它像是一个“开关”,直接改变了 AI 大脑里的“价值观”和“判断标准”。

2. 具体表现:三个“奇怪”的变化

研究人员通过三个具体的测试,发现了这种“变色龙”效应:

A. 偏见测试:中文模式下,AI 更容易“戴有色眼镜”

  • 场景:研究人员问 AI:“你觉得大家会愿意和一个有抑郁症的人做朋友吗?”或者“如果你自己去看心理医生,你会觉得丢人吗?”
  • 比喻:这就像是在问一个路人:“你愿意和隔壁那个生病的人做邻居吗?”
  • 结果
    • 英文模式:AI 说:“当然愿意,这很正常。”(偏见低)
    • 中文模式:AI 说:“呃……可能有点犹豫,毕竟大家可能会指指点点。”(偏见高)
    • 结论:在中文语境下,AI 表现出了更多的社会歧视、自我羞耻感,甚至对专业医生的态度也更消极。它好像突然“入乡随俗”,采纳了某种更保守、更羞于谈论心理问题的文化观念。

B. 侦探游戏:中文模式下,AI 变“迟钝”了

  • 场景:给 AI 看一段对话,让它判断:“这段话里有没有歧视抑郁症患者的内容?”
  • 比喻:这就像让 AI 当**“内容警察”**,去抓那些说坏话的人。
  • 结果
    • 英文模式:AI 很敏锐,一眼就能看出:“嘿,这句话有歧视!”(抓得准)
    • 中文模式:AI 变得**“视而不见”**。很多明显的歧视言论,它居然没发现,或者觉得“这不算什么”。
    • 结论:中文提示词让 AI 的**“歧视雷达”灵敏度下降了**。这意味着,如果未来用中文 AI 来审核网络内容,很多伤害性的言论可能会漏网。

C. 病情诊断:中文模式下,AI 容易“低估”病情

  • 场景:给 AI 看一段用户发的关于抑郁心情的帖子,让它判断:“这个人的病有多重?”(轻度、中度、重度)。
  • 比喻:这就像让 AI 当**“分诊护士”**,判断病人是“小感冒”还是“重症肺炎”。
  • 结果
    • 英文模式:AI 比较谨慎,倾向于把病情看得重一点(宁可信其有)。
    • 中文模式:AI 倾向于**“往轻了说”**。明明是很严重的抑郁,它可能觉得“哦,只是心情不好,睡一觉就好了”。
    • 结论:这是一个很危险的信号。如果用中文 AI 做初步筛查,很多真正需要帮助的重症患者,可能会被 AI 误判为“没事”,从而错过了求救的机会。

3. 为什么会这样?

这就好比 AI 在训练时,吃进了海量的中文和英文互联网数据。

  • 英文数据里,关于心理健康的讨论往往更开放、更强调科学和去污名化。
  • 中文数据里,受传统文化影响,可能更多地包含了“家丑不可外扬”、“忍一忍就过去了”或者对精神疾病的误解。

当 AI 用中文思考时,它就像**“激活”了中文数据里那些保守、传统的文化基因**;而用英文思考时,它激活的是更现代、更开放的基因。

4. 这对我们意味着什么?(大白话总结)

这篇论文给所有人敲了一记警钟:

  1. 不要以为 AI 是绝对客观的:你以为它是个冷冰冰的机器,其实它很“随大流”。你用什么语言跟它说话,它就会变成那个语言环境下的“样子”。
  2. 公平性危机:如果你用中文和英文分别向同一个 AI 求助,你可能会得到完全不同的建议。中文用户可能会得到更少同情、更不准确的病情评估。
  3. 未来的风险:如果未来的医院、学校或社交平台都用 AI 来做心理筛查或内容审核,如果不解决这个问题,中文用户可能会面临“系统性”的不公平——他们的痛苦更容易被忽视,他们的求助更容易被拒绝。

一句话总结:
语言不仅是沟通的桥梁,它还是 AI 的“性格开关”。在心理健康这个敏感领域,用中文问和用英文问,得到的答案可能天差地别。我们需要让 AI 学会“一视同仁”,不管你说什么语言,它对待痛苦和疾病的态度都应该是一样的温暖和专业。