paint-brush
AIの幻覚は止められるのか?そうするための 3 つの方法を見てみましょう@datastax
3,063 測定値
3,063 測定値

AIの幻覚は止められるのか?そうするための 3 つの方法を見てみましょう

DataStax6m2023/10/19
Read on Terminal Reader

長すぎる; 読むには

LLM の幻覚を阻止する 3 つの方法、検索拡張生成 (RAG)、推論、反復クエリの検証。
featured image - AIの幻覚は止められるのか?そうするための 3 つの方法を見てみましょう
DataStax HackerNoon profile picture


今日、大規模な言語モデルは非常に強力になっています。彼らは私たちの最も難しい質問のいくつかに対する答えを提供するのに役立ちます。しかし、彼らは私たちを誤った方向に導く可能性もあります。彼らは幻覚を見る傾向があり、正しいように見える答えを与えることを意味しますが、そうではありません。


LLMトレーニング データ セットの一部ではないクエリに遭遇したとき、またはトレーニング データ セットに誤った情報が含まれているときに幻覚を起こします (これは、LLM がインターネット データでトレーニングされている場合に発生する可能性がありますが、周知のとおり、常に信頼できるわけではありません) )。 LLM にはメモリもありません。最後に、「微調整」は、新しいデータに基づいてモデルを再トレーニングすることで幻覚を軽減する方法とみなされますが、これには欠点があります。


ここでは、LLM の幻覚を阻止するための 3 つの方法、検索拡張生成 (RAG)、推論、および反復クエリを見ていきます。

検索拡張生成

ラグ、クエリがナレッジ ベースに入ります (この場合、 ベクトルデータベース) 意味ベクトル (数値の文字列) として。次にモデルは、次を使用してデータベースから類似のドキュメントを取得します。 ベクトル検索、ベクトルがクエリのベクトルに近いドキュメントを探します。


関連するドキュメントが取得されると、LLM はこれらのドキュメントとともにクエリを使用して、ユーザーへの応答を要約します。こうすることで、モデルは内部の知識のみに依存する必要がなく、適切なタイミングで提供されたあらゆるデータにアクセスできます。ある意味、LLM はそれ自体では持たない「長期記憶」を LLM に提供します。このモデルは、ベクトル データベースに保存されている独自のデータを含めることにより、より正確で状況に応じて適切な応答を提供できます。


ナレッジクエリの生成


代替の RAG アプローチには、ファクト チェックが組み込まれています。 LLM は回答を求められ、その回答は事実確認され、ベクトル データベース内のデータと照合されます。クエリに対する回答がベクトル データベースから生成され、LLM はその回答をプロンプトとして使用して、それが事実に関連しているかどうかを識別します。


ファクトチェックを組み込む

推論

LLM は多くのことに非常に優れています。 「トランスフォーマー」の進歩のおかげで、文中の次の単語を予測できるようになります。トランスフォーマーは、入力データのさまざまな部分にさまざまな程度の注意を払うことで、機械が人間の言語を理解する方法を変換します。 LLM は、多くの情報を非常に簡潔な答えに要約したり、大量のテキストから探しているものを見つけて抽出したりすることにも優れています。驚くべきことに、LLMS は計画も行うことができます。文字通りデータを収集し、旅行を計画することができます。


そしておそらくさらに驚くべきことに、LLM は推論を使用して、ほぼ人間と同じような方法で答えを導き出すことができます。人間は推論できるため、予測や意思決定を行うために大量のデータを必要としません。推論は、LLM が幻覚を避けるのにも役立ちます。その一例が「思考の連鎖を促す


この方法は、モデルが複数ステップの問題を中間ステップに分割するのに役立ちます。思考連鎖プロンプトを使用すると、LLM は標準のプロンプト手法では不可能な複雑な推論問題を解決できます (詳細については、ブログ投稿をご覧ください)言語モデルは思考連鎖を通じて推論を実行しますGoogleより)。


LLM に複雑な数学の問題を与えると、間違ってしまう可能性があります。しかし、LLM に問題とその解決方法を提供すると、正確な答えが得られ、その答えの背後にある理由も共有されます。ベクトル データベースは、これと同様の質問の例を提供し、プロンプトにその例を入力するため、この方法の重要な部分です。


さらに良いことに、質問と回答を取得したら、それをベクトル データベースに保存し直すことで、生成 AI アプリケーションの精度と有用性をさらに向上させることができます。


答えをベクトルデータベースに保存する


他にも、学習できる推論の進歩が多数あります。思考の木少なくともほとんどの人に自己一貫性、 そして命令チューニング

反復クエリ

LLM 幻覚を軽減する 3 番目の方法は、対話型クエリです。この場合、AI エージェントは、LLM とベクトル データベースの間を行き来する呼び出しを仲介します。最良の答えに到達するために、これが複数回繰り返される場合があります。 FLARE とも呼ばれる、この将来を見据えたアクティブな検索生成の例です。


質問を受け付け、ナレッジ ベースにさらに類似した質問を問い合わせます。同様の質問が次々と寄せられるでしょう。次に、すべての質問を使用してベクトル データベースにクエリを実行し、回答を要約して、回答が適切かつ合理的であるかどうかを確認します。そうでない場合は、そうなるまで手順を繰り返します。


前方アクティブ検索生成


その他の高度な対話型クエリ方法には、次のものがあります。 AutoGPTマイクロソフト・ジャービス、 そしてソロパフォーマンスのプロンプト


エージェントのオーケストレーションに役立つツールが多数あります。 ラングチェーンこれは、LLM とベクトル データベース間の呼び出しを調整するのに役立つ優れた例です。基本的に、大部分の管理タスクと LLM との対話を自動化し、メモリ、ベクトルベースの類似性検索、高度なプロンプト テンプレートの抽象化、およびその他の豊富な機能のサポートを提供します。また、思考連鎖や FLARE などの高度なプロンプト手法も支援およびサポートします。


別のそのようなツールは、カシオこれは、データとメモリを最上級の市民にするという考えのもと、Astra DB ベクトル データベース上の抽象化として DataStax によって開発されました。 生成AI 。 CassIO は、データベースにアクセスするプロセスを抽象化することで、Cassandra と生成人工知能やその他の機械学習ワークロードをシームレスに統合する Python ライブラリです。ベクトル検索追加のコードの必要性を最小限に抑える、すぐに使用できるツールのセットを提供します。

すべてをまとめる: SkyPoint AI

スカイポイントAIは、シニアケアおよびリビング業界向けのデータ、分析、AI サービスに特化した SaaS プロバイダーです。同社は生成 AI を活用して、高齢者、介護者、ソフトウェア システム間の自然かつ直感的な対話を可能にしています。複雑なアプリケーションを簡素化し、ユーザー エクスペリエンスを合理化することで、 SkyPoint AI は高齢者や介護者に力を与える情報や洞察に簡単にアクセスできるため、ケアの強化に役立ちます。


同社は構造化データと非構造化データの両方からさまざまなデータを抽出して、「現在メディケアに加入している居住者は何人ですか?」などのプロンプトに対して AI が生成した回答を提供します。 SkyPoint CEOのTisson Mathew氏は最近私にこう語った。これにより、医療提供者は正確なデータに基づいて、情報に基づいた意思決定を迅速に行うことができると同氏は述べた。


しかし、そこに至るまでにはプロセスが必要だったとマシュー氏は語った。彼のチームは、標準的な LLM を取得し、SkyPoint データを使用して微調整することから始めました。 「それは悲惨な結果をもたらしました。ランダムな言葉さえも含まれていました」と彼は言いました。プロンプトの理解と作成は SkyPoint で処理できますが、正確な回答を大規模に生成するには AI テクノロジー スタックが必要でした。


SkyPoint は最終的に、電子医療記録や給与データなどの構造化データを通信事業者やプロバイダーから取り込むシステムを構築しました。これは列形式のデータベースに保存されます。 RAG を使用してクエリを実行します。政策や手順、州の規制などの非構造化データは、ベクトル データベースに保存されます。 DataStax Astra DB


ティソン氏は一例として、「居住者が虐待を行ったらどうなるのか?」という質問を投げかけた。 Astra DB は、州の規制、ユーザーの状況、さまざまなドキュメントに基づいて組み立てられた回答を提供します。 ベクトル埋め込み高齢者介護施設職員にとって理解しやすい自然言語


「これらは正しくなければならない具体的な答えです」とティソン氏は語った。 「これは、組織がコミュニティやビジネスのために情報に基づいた意思決定を行うために依存する情報です。」

結論

SkyPoint AI は、AI の幻覚のリスクを軽減することの重要性を示しています。正確な答えを保証するための方法やツールがなければ、悲惨な結果になる可能性があります。


RAG、推論、FLARE などの反復クエリのアプローチにより、生成 AI (特に独自のデータを利用した場合) は、企業が顧客に効率的かつ効果的にサービスを提供できるよう支援する強力なツールになりつつあります。


データスタックス、アラン・ホー著

DataStax がどのように役立つかについて詳しく知るリアルタイムの生成 AI アプリケーションを構築する


ここでも公開されています。