AIはしばしば称賛される(
この論文の中心的な主張は、言語モデルや知識ベースなどの AI システムの使用が増えることで、著者が「知識の崩壊」と呼ぶ文明レベルの脅威につながる可能性があるというものだ。主流の従来の情報源で訓練された AI に依存するようになると、知識の周辺にある突飛で型破りなアイデア、つまり変革をもたらす発見や発明の原動力となるアイデアとのつながりを失う危険がある。
論文の完全な分析、いくつかの反論、技術的な内訳は以下をご覧ください。しかし、まずは「知識の崩壊」が実際に何を意味するのか、そしてなぜそれがそれほど重要なのかを掘り下げてみましょう...
の
簡単に言えば、知識の崩壊とは、AI によって従来の知識や一般的なアイデアへのアクセスが容易になり、従来とは異なる難解な「ロングテール」の知識が無視され忘れ去られることです。これは、私たち個人を愚かにすることではなく、むしろ人間の思考の健全な多様性を侵食することです。
ピーターソン氏は、これはイノベーションに対する実存的脅威だと主張する。なぜなら、多種多様なアイデア、特に非主流派のアイデアと交流することで、私たちは新しい概念のつながりや精神的な飛躍を生み出せるからだ。科学、技術、芸術、文化における最も影響力のあるブレークスルーは、まったく異なる概念を統合したり、ある分野のフレームワークを別の分野に適用したりすることで生まれることが多い。しかし、AI によって「通常の」知識の狭い範囲からしか知識を引き出せなくなると、そうした創造的なひらめきはますます起こりにくくなる。私たちの集合知は、順応主義的なエコー チェンバーに閉じ込められ、停滞する。長期的には、人間の想像力の範囲は、AI ツールによって最適化された限られた情報量に合わせて縮小することになる。
これを説明するために、すべての本の提案が最も人気のある主流のタイトルのみでトレーニングされた AI から来ると想像してください。非主流のジャンルやニッチな主題は時間とともに消え、文学界は派生的で反復的な作品のサイクルから抜け出せなくなります。まったく異なる影響を混ぜ合わせても、革命的なアイデアは生まれません。
あるいは、科学者や発明家が既存の研究の集積に基づいてトレーニングされた AI からすべての知識を得るシナリオを想像してみてください。最も従来的でよく踏襲された研究の方向性が強化され (トレーニング データに多く反映される)、真のパラダイム シフトにつながる型破りなアプローチは衰退します。AI の盲点によって無視されるため、発見のフロンティア全体が未開拓のままになります。
これが、主流のデータを重視する AI システムに情報供給と知識のキュレーションをアウトソーシングする傾向が強まる中で、ピーターソン氏が懸念している潜在的なリスクだ。人類が大きな創造的飛躍を続けるために必要な思考の多様性そのものが、慣習的で量的に人気のあるものの引力に飲み込まれ、徐々に失われていくのだ。
知識の崩壊のダイナミクスをさらに調査するために、ピーターソンは、AI による情報源の狭まりが世代を超えてどのように悪化するかを示す数学モデルを紹介します。
このモデルは、1) 従来の方法を使用した情報の完全な真の分布、または 2) 主流の情報を中心としたより狭い分布からサンプリングする割引 AI ベースのプロセスのいずれかからサンプリングすることによって知識を獲得することを選択できる「学習者」のコミュニティを想定しています。
次にピーターソンは、さまざまなシナリオと仮定の下で、全体的な「公共知識の分布」が複数の世代にわたってどのように進化するかをシミュレートします。
主な調査結果:
AI によって学習者が主流の情報を得るコストが 20% 削減されると、一般の知識の分布は AI がない場合に比べて 2.3 倍も偏ったものになります。非主流の知識は急速に競争に負けてしまいます。
AI システム間の再帰的な相互依存性 (たとえば、別の AI の出力から学習する AI など) により、世代を経るごとに知識の崩壊が劇的に加速します。各ステップでエラーと慣習に対する偏見が増大します。
崩壊を相殺するには、学習者が積極的に周辺知識を求める非常に強い動機が必要です。学習者は希少な情報の価値を認識するだけでなく、個人的な犠牲を払ってそれを獲得するために努力しなければなりません。
ピーターソン氏はまた、彼のモデルを社会学習理論における「情報カスケード」などの概念や、AI 企業が最も商業的に適用可能なデータを優先する経済的インセンティブと結び付けています。これらはすべて、AI 主導の知識エコシステムにおける従来のものへの強い圧力を示唆しています。
知識の崩壊に関するピーターソンの議論は、哲学的に挑発的であり、技術的にも首尾一貫しています。この論文の形式モデルは、問題を分析し、解決策を構想するための有用な枠組みを提供します。
しかし、私は数学的シミュレーションだけではなく、これらのダイナミクスが実際に機能していることを示す、より直接的な現実世界の証拠を見たかった。知識の多様性を時間の経過とともに追跡するための経験的指標は、核となる主張をテストし、定量化するのに役立つかもしれない。この論文では、潜在的な反論への対処もほとんど行われていない。
私の頭の中にあるいくつかの重要な未解決の疑問:
AI による知識へのアクセスが拡大すれば、たとえ慣習に多少偏ったものになったとしても、イノベーションの面では依然としてプラスになるのではないでしょうか。学習の障壁を下げることの方が重要ではないでしょうか。
AI 知識ツールの効率性向上を維持しながら知識の崩壊を相殺するには、どのような集団政策、インセンティブ、選択アーキテクチャが役立つでしょうか? 機械知能と包括的な情報をどのように融合できるでしょうか?
主流の知識がコモディティ化するにつれて、AI 企業の経済的インセンティブは時間の経過とともに変化し、希少なデータやエッジ ケースに高い価値を置くようになるでしょうか。市場のダイナミクスは実際に多様性を促進するのでしょうか。
AI トレーニング データの確保や、周辺知識の探求に対する個人の取り組みなどの提案された解決策は、私には部分的にしか効果的ではないように思われます。これを解決するには、個人の選択だけでなく、社会および組織レベルでの調整が必要であるように思われます。型破りなものを積極的に評価し、保存するための共通のメカニズムが必要です。
また、分散化されたオープンな知識ベースがAI主導の絞り込みに対する対抗手段としてどのような役割を果たすのか興味があります。Wikidataのような取り組みは、
結局のところ、ピーターソン氏の論文は、私のように AI を強く支持する人々にとっても、AI を人間の知識の仲介者にしようとする私たちの急ぎ足に潜む隠れた危険についての強力な警告です。機械知能によって作り変えられた世界では、混沌とした手に負えない思考の多様性を維持することが、人類の継続的な創造性と進歩にとって不可欠です。
従来型のものを効率的に提供するだけでなく、従来とは異なるものを育むためにも、AI 知識ツールを積極的に設計するのが賢明かもしれません。周辺にある奇妙なものとのつながりを保つには、強力な保護手段とインセンティブが必要です。そうしないと、私たち自身の設計した順応主義のバブルに私たちの集合的な精神が閉じ込められる危険があります。
では、皆さんはどう思いますか。AI 主導の文化における知識の崩壊を懸念していますか。それを防ぐためにどのような戦略を提案しますか。コメント欄であなたの考えをお聞かせください。
この紹介文に興味を持たれた方は、有料購読者になって完全な分析を入手し、重要な AI の問題を明らかにする私の仕事をサポートすることを検討してください。これらのアイデアに取り組むことが私たちの創造的な未来にとって不可欠であるという私の信念に賛同していただける場合は、この記事を共有し、他の人をディスカッションに招待してください。
人間の知識の多様性は、抽象的な「あればよい」というものではありません。それは、人類の最も意義深いブレークスルーと創造的な飛躍に不可欠な触媒です。超効率的な AI 知識キュレーションに直面しても、その活気に満ちたアイデアの範囲を維持することは、革新的な種としての私たちの将来にとって決定的な課題です。