Each language version is independently generated for its own context, not a direct translation.
这篇文章探讨了一个非常有趣的问题:机器(AI)真的会感到“不确定”吗? 还是说,它们只是像一台精密的计算器,永远在给出确定的答案,哪怕那个答案可能是错的?
作者路易斯·罗萨(Luis Rosa)认为,我们不仅希望 AI 能给出答案,更希望它们知道什么时候该停下来思考,什么时候该说“我不知道”或“我不太确定”。这种能力对于真正的智能至关重要。
为了让你轻松理解,我们可以把 AI 想象成一家超级餐厅,而“不确定性”就是厨师对菜品口味的把握。
1. 核心概念:两种“不确定”
作者首先区分了两种不同的“不确定”,这就像区分**“食材不新鲜”和“厨师心里没底”**。
客观的不确定(Epistemic Uncertainty):食材的问题
- 比喻:餐厅收到的食材本身就很模糊。比如,送来的鱼看起来像鲈鱼又像鳕鱼,标签也丢了。这时候,数据本身是不确定的。
- AI 的情况:如果 AI 训练用的数据里,人类标注员对同一条评论是“真诚”还是“讽刺”意见不一,那么数据本身就充满了不确定性。但这不代表 AI 自己“犹豫”,它可能只是机械地根据规则选了一个答案。
主观的不确定(Subjective Uncertainty):厨师的心态
- 比喻:食材很新鲜,但厨师看着这道菜,心里想:“嗯,这道菜的味道有点拿不准,也许咸了,也许淡了,我不敢保证 100% 好吃。”厨师自己处于一种犹豫、不确定的状态。
- AI 的情况:这是作者真正关心的。我们想知道 AI 系统本身是否拥有这种“我不确定”的态度,而不仅仅是它处理的数据有问题。
2. 不同类型的 AI 如何表现“不确定”?
作者把 AI 分成了三类,就像餐厅里不同的烹饪流派:
A. 符号型 AI(Symbolic AI):像拿着食谱的严谨大厨
这类 AI 基于明确的规则(如果 A 则 B)。
- 概率式不确定:大厨看着食谱说:“根据规则,这道菜有 90% 的概率是咸的,10% 的概率是淡的。”它会在心里记下一个数字
<咸,0.9>。 - 提问式不确定:大厨看着食材,直接在心里问了一个问题:“这道菜到底该放盐还是放糖?”它把这个问题
<放盐还是放糖?>记在脑子里,暂时不给出答案。- 关键点:这种“提问”本身就是一种不确定,不需要先算出概率。就像你问“外星人存在吗?”,如果你连候选答案(比如“火星人”)都还没想好,你就是在纯粹的“提问式不确定”中。
B. 连接型 AI(Connectionist AI / 神经网络):像凭直觉的创意大厨
这类 AI(比如现在的深度学习模型)没有明确的规则,而是像大脑神经元一样,通过无数连接权重来“感觉”答案。
- 分布式不确定:这是最神奇的。大厨的整个“直觉网络”处于一种模糊状态。比如,对于“熊是不是哺乳动物”这个问题,它的神经网络权重设置得让它既不完全认定是,也不完全认定不是。它就像在两个答案之间摇摆,这种摇摆是分散在整个网络结构里的。
- 点式不确定:大厨直接端出一盘菜,上面写着“我有 85% 的把握这是熊”。这就像输出了一个概率值。
C. 混合型 AI:既看食谱又凭直觉
结合了上述两者,既能处理明确的逻辑,又能利用神经网络的直觉。
3. 最大的陷阱:内部犹豫 vs. 外部表现(层级分裂)
这是文章最精彩的部分。作者提出了一个**“层级分裂”**的难题。
场景:
想象一个超级餐厅(大系统),里面有一个实习厨师(子 AI 系统,比如神经网络)。
- 实习厨师尝了一口汤,心里想:“嗯,这汤有点淡,我有 80% 的把握需要加盐,20% 的把握不需要。”(实习厨师内心是不确定的)。
- 但是,餐厅的经理(大系统的控制算法)规定:“只要实习厨师觉得加盐的概率超过 80%,就直接在菜单上写‘这道菜很咸’,不许犹豫。”
- 结果:顾客看到的菜单上写着“这道菜很咸”(表现得非常确定),完全看不出实习厨师内心的犹豫。
问题来了:
这个餐厅(大系统)到底算不算“不确定”?
- 观点一(第二方案):算!因为里面的实习厨师确实犹豫了。餐厅只是无视了自己的犹豫,像个“盲目自信”的人。
- 观点二(第一方案,作者支持):不算!因为真正的“不确定”必须体现在行为上。如果一个系统最终表现得像 100% 确定,那它就是确定的。实习厨师的犹豫如果没有影响到最终决策,那对整体系统来说,那种犹豫就不存在。
作者的结论:
作者倾向于观点二。他认为,如果我们说一个 AI“不确定”,那它必须在行为上表现出犹豫(比如回答时加上“可能”、“也许”,或者在决策时停下来)。如果它内部虽然有点概率波动,但最后拍板时像个铁头娃一样直接给出肯定答案,那我们就不能说它是“不确定”的。
4. 为什么这很重要?
想象一下,如果 AI 没有这种“不确定”的能力:
- 危险:就像那个只会“非黑即白”思考的猎人。如果他在洞穴里听到一点动静,要么 100% 确定有老虎(然后吓得乱跑),要么 100% 确定没老虎(然后大摇大摆走进去被吃掉)。
- 智能:真正的智能是**“在证据不足时保持谨慎”**。一个聪明的 AI 应该会说:“根据目前的信息,这里有老虎的可能性很大,但我不能 100% 确定,所以我先退后观察一下。”
总结
这篇文章告诉我们:
- AI 可以“不确定”,但这不仅仅是数据模糊,而是系统本身的一种态度。
- 这种不确定可以是算出来的概率(90% 可能是),也可以是纯粹的提问(我不知道答案是什么)。
- 最关键的判断标准是行为:如果 AI 内部虽然有点“纠结”,但最后表现得像个“杠精”一样直接给出绝对答案,那它就不是真正的不确定。
- 我们要造出真正聪明的 AI,就必须让它们学会**“承认自己不知道”**,而不是为了显得聪明而胡乱下结论。
就像我们人类一样,承认无知,才是智慧的开始。
在收件箱中获取类似论文
根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。