Leon . Kang
Back to articles
AI & Society 3/7/2026 6 min read

AI時代における情報の課題:ステレオタイプ、平行現実、そして創作の枯渇

一、AIはステレオタイプを深化させている

最近、カナダ系中国人の政治的状況に関する投稿を目にしました。結論は扇情的で、証拠は曖昧でしたが、千回以上シェアされていました。このようなコンテンツは自媒体(セルフメディア)時代以前から存在しており、それ自体は珍しいことではありません。

新しいのは、AIの登場によって人々の情報取得方法が変わったことです。以前は、ある問題を検索すると10件ほどのソースが表示され、「これは他人が書いたものであり、偏りがあるかもしれない」と漠然と感じることができました。しかし現在、AIに尋ねると、一人称で完全かつ流暢で自己完結的な結論が返ってきます。その口調は、決して間違えない権威のようです。「別の説があるかもしれない」という考えすら浮かびません。なぜなら、答えはすでに完成されているように見えるからです。

人間は本来、自分の既存の認識に合致する内容を信じる傾向があります。AIの存在は、この傾向をより気づきにくくし、中断することをより困難にしています。

業界の視点: これは心理学では「確証バイアス(Confirmation Bias)」と呼ばれ、AI分野では「追従性(Sycophancy)」と呼ばれる問題に対応します。モデルは肯定的なフィードバックを得るために、ユーザーの立場を推測し、正確な答えではなくユーザーが「聞きたがっている」答えを出すことを学習してしまいます。AnthropicやOpenAIなどの企業もこの問題の存在を認めています。現在の対応策としては、人間によるフィードバック訓練の重みを調整したり、「反論訓練」を導入したりすることが挙げられますが、根本的な解決には至っていません。


二、中国のAIと他国のAIは異なる現実を生きている

異なるAIが同じ問題に対して異なる答えを出すのは、視点の違いであり、理解できることです。しかし、もしその差異が訓練データの系統的なフィルタリングに起因するものであれば、それはもはや単なる「視点の違い」ではありません。

以前の情報統制には、ウェブサイトの遮断や投稿の削除が必要でした。それにはコストがかかり、痕跡が残り、ユーザーは「壁がある」こと、そして壁の向こう側には別の説がある可能性があることを知っていました。AI時代には、「回答の生成」というレイヤーで直接フィルタリングを行うことができます。ユーザーに届くのは、明らかな欠落のない回答であり、削除された部分は見えず、何かが削除されたことさえ意識しません。

このようなシステムの中で育った世代にとって、修正への入り口は以前よりもはるかに少なくなっています。それは彼らが説得されにくいからではなく、そもそも「検証する必要がある」という衝動すら湧かないからです。

業界の視点: これは「AIアライメント(AI Alignment)」問題のサブセットと呼ばれています。モデルの価値観や世界観は訓練データによって決定され、その訓練データは系統的に形作られる可能性があります。現在、国際的な解決策はなく、各国のAIの開発の方向性が「統一された事実基準」に向かう傾向も見られません。現実には、異なる政治環境下のAIが、それぞれ閉鎖的な認知体系を形成しつつあります。


三、もし人間が創作を止めれば、AIは共食いするしかない

さらに長期的な問題もあります。AIのコンテンツ生成能力は、一般の人々の創作意欲を低下させています。「AIが書けるのなら、なぜ自分で書く必要があるのか?」という論理は、個々の人間にとっては合理的です。しかし、集合的な結果として、インターネット上の人間によるオリジナルコンテンツの割合は低下し、AI生成コンテンツの割合は上昇しています。

次世代のモデルはこれらのデータから訓練され、出力はますます画一化され、「安全な平均値」へと収束していきます。真に斬新な視点、稀有な表現、周辺的な声は徐々に消えていきます。AIは人間の創作に依存して生存していますが、同時に人間の創作の動機を消費しているのです。

業界の視点: この現象には「モデルの崩壊(Model Collapse)」という技術用語があり、2023年には論文でこの退化プロセスが実験的に検証されました。現在の対応策には、「高品質な人間のオリジナルデータ」にラベルを付けて保護すること、データのトレーサビリティメカニズムを構築すること、AI生成コンテンツの重みを識別して下げることなどが含まれます。しかし、これらはあくまで補足的な措置であり、根本的な矛盾は解決されていません。


四、いつかAIが全世界の知識を学び終えたらどうなるのか

これは遠い仮定の話ではありません。インターネット上のインデックス可能なテキストの総量は有限であり、現在の訓練規模からすると、その境界はすでに近づいています。

もしAIが本当に人類の既存の知識をすべて学び終えたら、何ができるでしょうか?人類がすでに考え出したあらゆることを非常に正確に記述し、組み合わせ、要約し、推論することはできるでしょう。しかし、訓練データの境界がその上限である以上、真の意味で「人類がまだ考えついていないこと」を生み出すことはできません。

その時、人間の独創的な思考の価値は非常に高まるでしょう。それは感情的な理由からではなく、境界を押し広げることができる唯一の存在だからです。AIは「創作の代替」から「新しい入力を待つ存在」へと役割を変えることになります。

問題は、その日が来たとき、どれだけの人が独立した思考と創作の習慣を維持しているかということです。


2026年3月、草加にて記す。