大規模な言語モデルは、単に事柄を間違えるだけではなく、エラーを事実として提示します。 GPT-5 の基準エラー率は 1.4% で、GPT-4 の 1.8% より低く、GPT-4o の 1.49% よりわずか 0.09% が優れている。 LLM幻覚リーダーボード ちょっとした改善ですが、問題は残っています。 2024年半ば、GoogleのAI概要は、鉱物のために岩を食べるよう人々に言った - Googleは後でこの問題を認めた。2023年初頭、GoogleのBardデモは、ジェームズ・ウェブ宇宙望遠鏡の事実を誤解しました。 これらは面白いタイトルのように見えるかもしれませんが、人々が実際にこれらのツールに頼るときは異なります。 What causes hallucinations in LLMs LLMsで幻覚を引き起こす原因は何ですか ChatGPTを含むLLMは、事実を検証するのではなく、次の単語を序列で予測するように訓練されています。彼らは保証された真実の組み込みデータベースを持っていません。代わりに、彼らはトレーニングデータからパターンを合成することによってテキストを生成します。 トレーニングデータは巨大なウェブスクラップから来た - ブログ、フォーラム、ウィキ. 今日、ウェブの多くはAIで書かれているので、モデルは独自の出力から学び始める。 No more free data もはや無料データ 2023年半ばまでに、ユーザー生成コンテンツ(UGC)プラットフォームはアクセスをブロックし始めた。Redditは無料APIを制限し、subredditsは暗くなりました。Twitter/Xは無料APIアクセスを終了しました。LinkedInは大量のスクラップを抑えました。Stack OverflowはQ&Aへのトレーニングアクセスを請求すると述べました。QuoraはPoeアプリにより多くのコンテンツを移しました。 ビッグAI企業は有料ライセンスに移行し、公開モデルは古い、混乱したウェブデータを残し、AIで書かれたテキストでトレーニングする可能性が高くなりました。 Paying for access アクセス料金 OpenAIは最初に2023年にアソシエイト・プレスと契約を締結し、その後、Axel SpringerとNews Corp.と多年にわたる合意を結び、2025年までに、ガーディアンとワシントン・ポストを含む20以上の出版社が加盟した。 AIトレーニングデータ市場自体は2024年に約32億ドルで、2034年までに163億ドルに成長すると予想されている。 Where the clean data lives クリーンデータが暮らす場所 ライセンスおよびクリーンなデータは、セクター特有の貯蔵庫を形成しています: News & publishing (2023–25): AP, Axel Springer, News Corp, Dotdash Meredith; plus The Guardian, The Washington Post, Vox Media, and The Atlantic (archive access and in-product linking/attribution) アカデミック&文化(2024年~2025年):ハーバードの公的分野の書籍、MITのデータの起源に関する研究、arXivやSemantic Scholarなどのオープンレポジトリ。 医療と信頼性(2025年):ScaleMAI(クレーティング医療イメージング)およびDR-AIR(AI信頼性データセット)などの研究リポジトリ;PubMed抽象は開かれていますが、多くの全文は制限されています。 商業および企業(2023年~25年):BloombergGPTが独自の金融データに訓練を受け、トムソン・ロイターが統合を通じて利用できるコンテンツ、大規模なデータ/注釈プロバイダー(Appen、スケールAI)、および企業内部で使用されるセンサー/産業の遠隔技術。 専門化(2025年):ライセンスを受けたトレーニングデータとインフラストラクチャ(例えば、Meta-Scale AI)、同意ベースのトレーニングのための「公平なトレーニング」認証の確保に向けた主要な投資。 ニューヨーク・タイムズは2023年12月にOpenAIとマイクロソフトを訴え、そのアーカイブをライセンスしないことを明らかにした。Financial Timesは2024年4月にOpenAIと契約を締結した。ElsevierとWileyは閉鎖された科学アーカイブを維持している。 Paid, specialised data is next 支払い、専門データは次のとおりです。 私たちは分裂に向かう可能性があります:オープンウェブは、迅速な検索、テキストの作成、あるいは日常の質問に答えるような簡単なタスクに最適です;真剣な研究、分析、AIの構築は、データのクリーンな貯蔵庫 - 検査、フィルタリング、検証 - 多くの場合、サブスクリプションの後ろに移動します。 その設定には役割ベースのアクセスを構築する必要があります - HRはHRを見、金融は財務を見、法律は法律を見ます。Role-based access means the model only draws from what the person is cleared to view. This keeps private data out of answers and reduces the risk of the model pulling “facts” from the wrong pool. 役割ベースのアクセスを意味します。 ほとんどのチャットボットは今日これをしません。そのギャップが残っている場合、役割意識の高い検索とロックダウンされた知識ベースを構築するチームは信頼を得るでしょう。 What to do with only public AI access 公開AIのみのアクセスで何ができるか プロンプトエンジニアリングはしばしば作られた答えに対する防衛の最初のラインである - それは安価で即座です。 プロンプトが不明確である場合、答えは不明確になります。 業界の専門家は同じ点を強調します:十分な文脈なしでは、出力は貧しい可能性があり、モデルは幻覚する傾向があります。 明確なルールとクリーンなソースは、答えを順番に保ちます。 ベストプラクティスには: 明確なルールを設定し、以下を含む:慎重で、不確実な場合は「未知」を言い、以下のソースのみを使用し、引用を発明しないでください。 モデルをグラウンドする. ブラウジングがオフになっている場合は、キーパスに自分自身を貼り付け、それらを明確な境界線(例えば <data>...</data>)でマークし、モデルにそのテキストのみから回答するように指示します. ブラウジングが有効であれば、リンクも提供できますが、テキスト抽出物はより安全であり、モデルが間違った情報を引くリスクを減らします。 ターゲット、視聴者、長さ、および任意のタイムウィンドウ(時間に敏感なトピックの場合、例えば、過去12カ月のソースを好む)。 追加の主張を禁止し、提供された資料によって支持されていない主張を禁止する。 請求の後、掲載日付と短い補足引用(≤25単語)を含む提供された情報源からのインライン引用のみを要求します。 適切なモードを選択し、クリエイティブよりも正確な/分析的なモードを選択し、可能な限り低い温度/トップPを選択します。 Draft small, then expand. Start with a outline or short draft; refine with focused follow-ups. 概要または短い草案で開始し、焦点を当てたフォローアップで改善します。 名前、数字、日付、引用を確認し、実際のソースなしでどの行も削除します。 健康、法的、またはお金の主張は、行動する前に公式サイトまたは2番目の信頼できるソースで確認する必要があります。 強力なプロンプトを保存し、有効なプロンプトを再利用可能なテンプレートに変換し、繰り返しエラーが表示される場合に調整します。 ソース パッケージを維持します. Keep a small set of trusted links/text extracts ready to anchor answers. 信頼できるリンク/テキスト エキスプレートの小さなセットを準備して、答えをアンカーします。 The bottom line 底線 2025年までに、分割は明らかです: Public AI: 速く、アクセス可能で、幅広いインターネットのスグレープで訓練を受けました. Good for casual use, unreliable for compliance. Enterprise AI: Paid, curated, and audited. Built on licensed reservoirs, combined with governance and logs. エンタープライズAI:有料、監査、および監査。 どちらも続くでしょう。その違いは、1つはスピードを優先し、もう1つは責任を問うことです。 Glue in pizza sauce makes a funny headline when it comes from a consumer search. In a hospital chart or a courtroom filing, it's catastrophic. That's why curated reservoirs and guardrails are becoming the foundations of serious AI. ピザソースのグレーは、消費者の検索から来たときに面白いタイトルを作ります。