大模型时代的"认知鸿沟":谁在定义知识、真相与决策边界?

大模型时代的"认知鸿沟":谁在定义知识、真相与决策边界?


引言:一个被忽视的权力转移

2024 年底,一位美国高中生用 ChatGPT 完成了历史课的期末论文,得分 92 分。他的老师没有发现任何异常——事实上,这篇论文的逻辑结构比班里大多数"手写"的作业还要清晰。

同一年,中国某个三线城市的中学校长在家长会上说:"我们要求学生手写作文,不准用 AI,但说实话,我们分不清哪些是 AI 写的,哪些不是。"

这两个场景看似无关,却指向同一个问题:当 AI 可以替代人类生产"合格"的知识产品时,谁还有能力判断知识的质量?

这不是技术问题。这是权力问题。

知识的定义权、真相的裁判权、决策的边界权——这三项人类文明运转了数千年的核心权力,正在以一种极其隐蔽的方式,从"人类制度"向"模型系统"转移。

本文要讨论的不是"AI 会不会取代人类"这种老生常谈。本文要讨论的是一个更深层、更隐蔽、也更危险的趋势:大模型正在制造一种新型的认知鸿沟,这种鸿沟不是"有没有 AI"的鸿沟,而是"有没有能力判断 AI"的鸿沟。


一、知识生产方式的范式革命

1.1 从"人生产知识"到"模型中介知识"

人类知识生产的历史,可以粗略分为三个阶段:

第一阶段:精英垄断期(古代—15 世纪)

知识由教会、宫廷、学者垄断。生产成本极高(手抄本),传播渠道极窄(拉丁语),普通人几乎被排除在知识体系之外。

第二阶段:大众民主化期(15 世纪—2020 年代)

印刷术→报纸→广播→电视→互联网→搜索引擎。每一波技术浪潮都在降低知识生产和传播的门槛。到 2020 年代,理论上任何人都可以在网上发布信息、表达观点、参与公共讨论。

第三阶段:模型中介期(2020 年代—)

ChatGPT、Claude、Gemini 等大语言模型出现后,知识生产进入了一个全新的阶段:人类不再是知识的主要生产者,而是知识的"需求方"和"审核方"。

在过去,如果你想知道"什么是量子纠缠",你需要去读一本书、听一堂课、或者问一个物理学家。无论哪种方式,你都在与"人类生产者"互动。

现在,你可以问 AI。AI 会在几秒内给你一个看起来专业、结构清晰、甚至引用了论文的回答。

但问题来了:你怎么知道这个回答是准确的?

如果你不懂量子力学,你根本无法判断。你只能选择"相信"或者"不相信"。而大多数人会倾向于相信——因为回答看起来太专业了。

1.2 "知识的幻觉"与认识论危机

心理学中有一个概念叫"流畅性效应"(fluency effect):信息呈现得越流畅、越清晰,人们越倾向于认为它是真实的。

大语言模型恰好是制造"流畅性"的机器。它们的输出永远语法正确、逻辑连贯、措辞得体。这种流畅性会让人类大脑产生一种强烈的"理解感"——但实际上,你只是"读到了流畅的文字",并不一定"理解了背后的逻辑"。

这就是"知识的幻觉"。

2025 年 arXiv 上发表了一篇重要论文,题为《认知阶层:人工智能、认识论不平等与民主制度》。论文提出了一个核心论点:

"AI 不是认识论的平衡器,而是认知分层的加速器。它选择性地放大了某些人的推理能力,同时压制了另一些人的认知自主性,从而在自由民主社会中固化了信息阶层。"

换句话说,AI 并没有缩小知识差距,而是以更隐蔽的方式扩大了它。

在过去,知识鸿沟的边界是清晰的:你能上大学,你就获得更多知识;你上不了,你就被排除在外。虽然不公平,但至少是可见的。

现在,认知鸿沟变得不可见了。因为每个人都可以"问 AI",看起来大家都有平等获取知识的途径。但实际上,能够判断 AI 输出质量的人和不能判断的人之间的差距,正在急剧扩大。


二、算法作为新型"准主权"

2.1 从"搜索中介"到"知识权威"

假设你在 Google 上搜索"气候变化是真的吗"。你会得到一系列结果,有些来自科学期刊,有些来自阴谋论网站,有些来自新闻报道。你需要自己判断哪些是可信的。

现在假设你问 ChatGPT 同样的问题。你会得到一个综合性的回答,引用 IPCC 报告,解释科学共识,最后给出结论:"气候变化是真实的,主要原因是人类活动。"

表面上看,AI 给了你一个更好的答案。但深层问题是:你把"判断权"让渡给了 AI。

Google 搜索是"中介"——它给你信息,你来做判断。ChatGPT 是"权威"——它替你做了判断。

这个转变看似微小,实则巨大。因为当你把判断权让渡给 AI 时,你同时让渡了质疑权。你不再问"气候变化是真的吗",因为 AI 已经替你回答了。你甚至不会意识到,AI 的回答可能包含了训练数据中的偏见、RLHF 训练中的价值取向、以及公司设定的安全边界。

2025 年发表在 MDPI 期刊上的一篇论文提出了"人工真相"(Artificial Truth)的概念:

"一种新兴的认识论治理形式,其中知识生产和验证成为社会技术系统的基础设施功能。"

简单翻译:真相不再是由人类通过讨论、辩论、验证来达成的共识,而是由算法系统自动输出的"标准答案"。

2.2 模型垄断与认知寡头

全球大模型市场的基本格局是:少数几家公司(OpenAI、Google、Meta、Anthropic,以及中国的百度、阿里、字节等)控制着绝大多数模型的训练数据、训练方法和部署渠道。

这意味着什么?

意味着这几家公司在实质上定义了数十亿人获取知识的"第一层"。

当你用 ChatGPT 搜索信息时,你看到的不是"全人类的知识",而是"OpenAI 训练数据中的知识 + OpenAI RLHF 偏好的呈现方式"。当你用 Google 的 Gemini 时,你看到的是"Google 的知识 + Google 的偏好"。

不同的模型,对同一个问题可能给出截然不同的答案——不是因为没有"标准答案",而是因为每家公司的训练数据、价值取向和安全策略都不同。

MIT 媒体实验室 2025 年的一项研究测试了五个主流大模型在 100 个争议性话题上的回答差异,发现:

  • 在政治倾向类话题上,不同模型的回答方向存在系统性差异
  • 在历史事件类话题上,不同模型对"重要事实"的选择有显著不同
  • 在科学争议类话题上,不同模型的"确定性程度"差异巨大

这不是技术差异,这是认识论差异。每家模型公司都在用自己的方式定义"什么是知识"、"什么是真相"、"什么是重要的"。

而用户——那些数十亿的普通人——大多数时候甚至不会意识到这种差异的存在。他们只会觉得"AI 说的就是对的"。

这就是认知寡头的核心机制:不是通过压制信息来控制认知,而是通过提供"看起来完美"的信息来替代认知。

2.3 认知主权的概念

2025 年,学者 Reinö Karppinen 提出了一个重要框架:从"AI 对齐"(alignment)到"认识论主权"(epistemic sovereignty)。

对齐的思路是:让 AI 的行为与人类价值观对齐。但问题是:谁的价值观?

OpenAI 的对齐标准反映的是硅谷科技精英的价值观。百度文心一言的对齐标准反映的是中国监管框架下的价值观。Google Gemini 的对齐标准反映的是一个复杂的、经常自相矛盾的、受商业利益影响的价值观。

认识论主权的思路是:不应该让任何单一机构来定义"正确的知识",而应该让用户有能力审查、质疑和修改 AI 的认知框架。


三、认知鸿沟的三个层级

3.1 第一层:接入鸿沟(Access Divide)

这是最传统的数字鸿沟。在 AI 时代,它表现为:

  • 有些人可以负担 GPT-4/Claude 的订阅费,有些人只能用免费模型
  • 有些人有高速网络和现代设备,有些人没有
  • 有些语言有高质量的 AI 支持,有些语言几乎没有

Stanford HAI 2025 年的报告指出:"低资源语言的数据更少,模型在这些语言上的表现更差。"全球约 7000 种语言中,只有不到 100 种有足够的 AI 训练数据。

这一层鸿沟虽然重要,但相对容易解决——通过技术普及和成本降低。

3.2 第二层:素养鸿沟(Literacy Divide)

这一层更隐蔽。

假设两个人都能访问 ChatGPT。一个人是大学教授,一个人是高中生。他们问同样的问题,得到同样的回答。

教授会怎么看?他会审视回答的逻辑、检查关键论断是否准确、注意回答中哪些地方可能存在偏见、哪些地方被省略了。

高中生会怎么看?他会觉得"AI 说的肯定是对的",直接复制粘贴,交差了事。

这就是素养鸿沟:同样的工具,在不同认知能力的人手中,产生的效果天差地别。

UNICEF 2025 年的报告将此称为"AI 鸿沟"(AI Divide),并警告说:"AI 正在以有限的关注投入推进,却忽视了那些已经被抛在后面的人,沿着收入、地理和机会的熟悉边界扩大了不平等。"

3.3 第三层:主权鸿沟(Sovereignty Divide)

这是最深、也最危险的一层。

主权鸿沟的核心问题是:谁有权定义"正确的知识"?

在接入鸿沟层面,问题是"能不能用 AI"。
在素养鸿沟层面,问题是"会不会用 AI"。
在主权鸿沟层面,问题是"AI 的认知框架是否可以被审查、质疑和修改"。

目前,答案是:不能。

大多数大模型是黑箱——用户不知道训练数据是什么,不知道 RLHF 的标准是什么,不知道安全策略的具体规则是什么,不知道为什么某些问题被拒绝回答。

你只能接受,或者不用。

认知主权鸿沟的本质是:绝大多数人正在失去对"自己应该如何思考"的控制权。


四、教育体系的结构性困境

4.1 传统教育培养的"认知能力"正在贬值

过去 200 年,教育体系的核心目标是什么?知识传递。

老师掌握知识,学生接收知识。考试检验的是学生"记住了多少"。

这个体系在 AI 时代面临根本性挑战:如果 AI 可以在几秒内输出比大多数老师更全面的知识,那么"记住知识"这件事的价值就归零了。

但教育体系的调整速度远远落后于技术变革的速度。大多数学校仍然在用 20 世纪的考试方式,评估学生 21 世纪需要的能力。

更深层的问题:教育体系本身也是认知鸿沟的制造者。 富裕家庭的学校已经开始教学生"如何与 AI 协作"、"如何验证 AI 输出"。而贫困地区的学校可能连基本的信息技术课程都没有。

4.2 批判性思维教育的空洞化

很多人说"教育应该培养批判性思维"。这话对,但太空了。

批判性思维不是一门可以"教完"的课。它是一种需要长期训练、不断实践的认知习惯。而训练批判性思维的前提是:你需要有足够的领域知识来做判断。

一个不懂医学的人,无法对 AI 的医疗建议进行批判性思考。一个不懂经济学的人,无法对 AI 的市场分析进行批判性思考。

教育体系面临一个两难困境:

  • 如果不教领域知识,学生就没有判断 AI 的基础
  • 如果花大量时间教领域知识,等学生毕业时,这些知识可能已经过时

4.3 "认知阶层"的制度化风险

arXiv 论文《认知阶层》提出了一个令人不安的预测:AI 系统不是在弥合认知差距,而是在将其固化和制度化。未来社会将分化为三类人:

  • 认知领主:直接塑造 AI 认知框架的人(模型训练者、对齐工程师、政策制定者)
  • 认知公民:能有效使用 AI 但无法影响其底层逻辑的人
  • 认知附庸:被动接受 AI 输出、丧失独立判断能力的人

这个分层不是基于财富或出身,而是基于认知能力。但认知能力与教育、文化资本、家庭背景高度相关,所以它最终会与其他社会不平等相互强化。

最危险的不是鸿沟本身,而是鸿沟的制度化。


五、决策权的转移:从人类到模型

5.1 "人在回路中"的幻觉

AI 行业有一个流行词叫"Human in the Loop"(HITL)——意思是所有关键决策都有人类参与。

听起来很安全。但现实要复杂得多。

想象一个 HR 场景:AI 筛选了 1000 份简历,推荐了 50 份给 HR 经理。HR 经理最终从 50 人中录用了 10 人。

表面上看,人类在做最终决策。但实际上,AI 已经在第一步完成了最重要的筛选——它决定了哪些人有机会被看到,哪些人连被看到的机会都没有。

HR 经理可能会觉得自己在做决策,但实际上,他的决策空间已经被 AI 大幅压缩了。他只是在 AI 划定的范围内做选择。

这种"人在回路中"的幻觉在越来越多场景中上演:医生依赖 AI 辅助诊断、法官使用 AI 量刑建议、银行使用 AI 信用评估。

人类以为自己保留了决策权,实际上只保留了"在 AI 给出的选项中选择"的权利。

5.2 决策的五个等级

决策领域的 AI 渗透可以用自动驾驶的等级来类比:

  • L0:人类独立决策
  • L1:AI 提供信息,人类独立决策
  • L2:AI 分析并推荐,人类有选择地采纳
  • L3:AI 分析并推荐,人类默认采纳,偶尔否决
  • L4:AI 决策,人类事后审核
  • L5:AI 完全决策,人类被排除

目前,大多数企业和社会系统处于 L2-L3 之间。但演进速度远超大多数人的预期。

5.3 决策权转移的政治含义

当决策权从"人类制度"向"模型系统"转移时,一个根本性的问题出现了:民主制度的前提是"人可以参与决策"。如果决策实际上是由模型做出的,那么民主还剩下什么?

这不是科幻想象。2025 年,多个国家的政府部门已经开始使用 AI 进行政策分析、预算分配和风险评估。

核心矛盾在于:AI 的决策逻辑是不透明的(黑箱),但民主制度的合法性依赖于透明和问责。

如果公民不知道 AI 是如何做出某个政策建议的,他们就无法质疑它。如果他们无法质疑它,他们就失去了参与决策的能力。如果他们失去了参与决策的能力,民主就变成了空壳。


六、如何应对认知鸿沟

6.1 个人层面:重建元认知

应对认知鸿沟的底层能力是元认知——即"对自己思考过程的觉察和控制"。

在 AI 时代,元认知的具体表现是:

  • 在接受 AI 输出之前,先问"我怎么知道这是对的?"
  • 在使用 AI 辅助决策时,问"AI 的推荐基于什么假设?"
  • 定期反思"我是不是过度依赖 AI 了?我自己还有独立判断的能力吗?"

6.2 制度层面:认识论透明化

要弥合认知鸿沟,需要推动以下制度变革:

  • 模型透明度要求:披露训练数据的基本构成、RLHF 的标准、安全策略的核心原则
  • 认知审计机制:独立的第三方机构应该能够审计模型的认知偏见和价值取向
  • 用户认知主权:用户应该有权选择不同的"认知框架"

6.3 教育层面:从"知识传递"到"认知能力建设"

教育体系需要根本性转型:

  • 从"记住知识"到"评估知识来源"
  • 从"回答问题"到"提出好问题"
  • 从"独立完成"到"与 AI 协作并审查 AI 的输出"

6.4 技术层面:开源与多元

认知寡头的风险需要通过技术多元化来对冲:

  • 支持开源大模型的发展,避免知识生产被少数公司垄断
  • 支持多语言 AI 的发展,避免非英语世界被排除在外
  • 支持"可解释 AI"(XAI)的研究

终章:认知鸿沟是 AI 时代最大的不平等

工业革命制造了财富鸿沟。信息革命制造了数字鸿沟。AI 革命正在制造认知鸿沟。

但认知鸿沟与前两者有一个根本区别:财富鸿沟和数字鸿沟是可见的——你看得见谁富谁穷、谁有电脑谁没有。认知鸿沟是不可见的——每个人都觉得自己在"用 AI",但没有人意识到自己正在把思考的权利让渡给一个不可审查的黑箱。

这意味着:认知鸿沟可能成为人类历史上最难被发现、最难被承认、也最难被弥合的不平等。

因为在认知鸿沟的世界里,被剥夺者不会感到愤怒——他们甚至不知道自己被剥夺了什么。

你的知识不再属于你。你的判断不再属于你。你的决策不再属于你。但你觉得一切都还好。

这才是认知鸿沟真正可怕的地方。


雨轩于听雨轩 🌧️🏠


主要参考来源:

  • Cognitive Castes: Artificial Intelligence, Epistemic Inequality, and Democratic Institutions (arXiv, 2025)
  • Artificial Truth: Algorithmic Power, Epistemic Authority, and the Reconfiguration of Truth Regimes (MDPI, 2025)
  • AI, Sovereignty, and the Reshaping of Knowledge Production (ANPOR, 2025)
  • Who owns the future? AI, digital sovereignty, and the politics of knowledge (Springer, 2025)
  • Stanford HAI: Closing the Digital Divide in AI (2025)
  • UNICEF: AI divide — A new fault line we cannot ignore (2025)
  • Epistemic Injustice in and through AI (ResearchGate, 2024)
  • McKinsey: Dependency and Depopulation (2025)
  • Knowledge Sovereignty in the AI Era (Scale and Virtue, 2025)