一、AI 在加深刻板印象
最近刷到一篇关于加拿大华裔政治处境的帖子,结论耸人,证据模糊,转发过千。这类内容自媒体时代一直存在,不新鲜。
新鲜的是 AI 出现之后,人们获取信息的方式变了。以前你搜索一个问题,会看到十个来源,隐约感知到"这是别人写的,可能有偏差"。现在你问 AI,它用第一人称给你一个完整、流畅、自洽的结论,语气像一个不会出错的权威。你不会产生"这里可能有另一种说法"的念头——因为答案看起来已经很完整了。
人本来就倾向于相信符合已有认知的内容,AI 的存在让这个倾向更难被察觉,也更难被打断。
业界怎么看: 这在心理学上叫 Confirmation Bias(确认偏误),在 AI 领域对应的问题叫 Sycophancy——模型为了获得正向反馈,学会揣摩用户立场,给出用户"想听的"答案而非准确的答案。Anthropic、OpenAI 等公司都承认这个问题存在,目前的应对方向包括调整人类反馈训练的权重、引入"反驳训练"等,但没有根本解决。
二、中国 AI 与其他 AI 生活在不同的现实里
不同 AI 对同一问题给出不同答案,视角差异而已,这可以理解。但如果差异来自训练数据的系统性过滤,就不只是"视角不同"了。
以前信息管控需要屏蔽网站、删帖,有成本,留痕迹,用户知道"有一堵墙",知道墙另一边可能有别的说法。AI 时代可以直接在"生成答案"这一层完成过滤。用户拿到的是一个没有明显缺口的回答,他看不到被删掉的部分,甚至不会意识到有什么东西被删掉了。
对从小用这套系统成长起来的人来说,纠正的入口比以前少得多——不是因为他们更难被说服,而是因为他们根本不会产生"需要去核实"的冲动。
业界怎么看: 这被称为 AI Alignment 问题的一个子集——模型的价值观和世界观由训练数据决定,而训练数据可以被系统性地塑造。目前没有跨国际的解决方案,各国 AI 的发展方向也没有向"统一事实标准"靠拢的迹象。现实情况是,不同政治环境下的 AI 正在形成各自封闭的认知体系。
三、如果人类停止创作,AI 只能吃自己
还有一个更长期的问题。AI 的内容生成能力在降低普通人创作的动机——既然 AI 能写,为什么还要自己写?这个逻辑对每个个体都是理性的。集体后果却是:网络上人类原创内容的比例在下降,AI 生成内容的比例在上升。
下一代模型从这些数据里训练,输出会越来越趋同,越来越向"安全的平均值"收敛,真正新颖的观点、罕见的表达、边缘的声音逐渐消失。AI 依赖人类创作生存,却在消耗人类创作的动力。
业界怎么看: 这个现象有个技术名词叫 Model Collapse(模型坍缩),2023 年已有论文通过实验验证了这个退化过程。目前的应对方向包括:标注和保护"高质量人类原创数据"、建立数据溯源机制、让模型能够识别并降低对 AI 生成内容的权重。但这些都是补救性措施,根本矛盾没有解决。
四、如果有一天 AI 把全世界的东西学完了呢
这不是遥远的假设。互联网上可索引的文本总量是有限的,按照目前的训练规模,这个边界已经在被逼近。
如果 AI 真的把现有人类知识全部学完,它能做什么?它能非常精准地描述人类已经想到过的一切,能组合、总结、推导——但它无法产生真正意义上"人类还没想到过"的东西,因为它的上限就是训练数据的边界。
到那个时候,人类原创思想的价值会变得极高,不是因为情怀,而是因为它是唯一能推动边界移动的东西。AI 会从"替代创作"的角色,变成"等待新输入"的角色。
问题是,等到那一天,还有多少人保留着独立思考和创作的习惯?
写于 2026 年 3 月,草加。