AI スタートアップの創設者であれば、ChatGPT のような大規模言語モデルが会話型 AI の進歩にどれほど大きな影響を与えているかをご存じでしょう。
しかし、商用ライセンスのコスト、検閲の問題、パフォーマンスの低下、プライバシーへの懸念、ブラックボックスなどの問題により、これらの独自モデルは多くのスタートアップ企業にとって依然として手の届かないものとなっています。
ここで、Vicuna と呼ばれるオープンソース プロジェクトが登場します。スタンフォード大学などの研究機関の研究者チームによって開発された Vicuna は、ChatGPT の品質の 90% 以上を達成するオープンソースの会話モデルです。これにより、GPT-4 のような非公開モデルのエキサイティングな代替品となります。
このようなコンテンツをもっと見るには、購読またはTwitterで私をフォローしてください!
この記事では、Vicuna とは何か、その仕組み、機能、AI 創設者として Vicuna をどのように活用できるかについて説明します。 ChatGPT やベース LLaMA モデルなどの競合他社とどのように比較できるか見ていきます。
また、モデルの特定の側面について詳しく知るために役立つヒントやガイドもいくつか紹介します。
この記事では Vicuna-13b に焦点を当てますが、さまざまなサイズの Vicuna モデルが多数存在しますので、試してみてください。さぁ、始めよう!
注: チャット用に LLaMA を微調整するモデルは Vicuna だけではありません。会話型アプリケーションでのLLaMA v2 、 Alpaca 、およびLLaMA-v2-chatの使用に関するガイドを確認してください。
会話型 AI の世界では、最近、ChatGPT のようなモデルが驚くべき自然言語能力を示し、驚くべき進歩を見せています。ただし、ChatGPT は上記のすべての問題を抱えた独自のモデルであるため、多くの開発者にとって依然として悪い選択肢です。
そのため、会話型アプリのイノベーションを促進できる、よりアクセスしやすくオープンなモデルが必要です。
ここで Vicuna が登場します。Vicuna は、スタンフォード、バークレー、MBZUAI などの主要機関の研究者によって開発され、最先端のオープンな会話型 AI を代表します。
これは、厳選された対話データに基づいて LLaMA モデルを微調整することによって作成され、オープンソースの基盤モデルからの転移学習の力を実証しています。
Vicuna は、ChatGPT よりもサイズが小さいにもかかわらず、会話の品質に匹敵し、他のオープン モデルよりも大幅に優れています。
しかし、それはビクーニャの技術だけではありません。これが本当に大きな影響力を持つのは、非営利の研究ライセンスの下で利用できることです。これにより、これまで大手テクノロジー企業のみに限定されていた最先端の会話型 AI へのアクセスが可能になります。
ついに、次世代のチャットボット、仮想アシスタント、会話型検索エンジン、その他の革新的なアプリケーションを強化できるオープン モデルが完成しました。
Vicuna の有望性は、それを活用したクールなプロジェクトを通じてすでに実証されています。たとえば、 MiniGPT4 はVicuna を使用してインテリジェントな仮想アシスタントを構築し、 LLaVA はVicuna を使用して会話型検索エンジンを作成し、 ToolLLaMA はVicuna の能力を利用して自然言語コンテンツを作成します。
そしてもちろん、いつかあなた自身のプロジェクトをこのリストに追加するかもしれません。
AI 開発者や新興企業にとって、Vicuna は刺激的な新しい機会を表します。その高い機能、無料の可用性、寛容な研究ライセンスにより、会話型アプリの迅速なプロトタイピングが可能になります。
スタートアップ企業は、独自のモデルへのアクセスによって制限されるのではなく、最先端の会話型 AI を使用して製品を検証し、構築できるようになりました。競争の場は平準化されました。
つまり、Vicuna は、トップレベルの会話型インテリジェンスへのアクセスを民主化すると約束しています。その出現は、イノベーションを促進するオープン AI モデルの作成における重要なマイルストーンを表しています。
会話型 AI の活用を検討しているスタートアップにとって、Vicuna は間違いなく注目に値するプロジェクトです。
Vicuna の物語は、Meta AI によって開発されたオープンソース言語モデルである LLaMA から始まります。 LLaMA には有能ではありましたが、本質的な会話能力はなく、主に会話術よりも言語そのものに重点を置いていました。
スタンフォード大学、バークレー校、MBZUAI などの研究機関の研究者たちは、これを変えようと取り組みました。彼らの目標は、ChatGPT のような独自のチャットボットに匹敵するオープンソースの会話モデルを作成することでした。
ところで、テキストの処理と分析のためにトレーニングされた AI モデル (LLaMA など) とチャットに特化した AI モデル (Vicuna など) の違いは何でしょうか?この 2 つを区別する重要な要素がいくつかあります。
LLaMA のような一般的な言語モデルは、対話エージェントに固有の要件がなく、テキストの分析と生成に重点を置いているのに対し、会話型 AI の目標は、受動的なテキスト評価よりも根本的に複雑です。
この目的を達成するために、Vicuna を作成した研究者らは、70,000 を超える人間と ChatGPT の対話交換で LLaMA を微調整し、モデルを会話に特化させ、会話のコンテキストにおけるテキストの自然な特徴を学習させました。
この微調整は、LLaMA のバージョンに、以前は欠けていた会話インテリジェンスを与えるために非常に重要でした。対話データの反復トレーニングを通じて、LLaMA は、マルチターン会話用に最適化されたエンコーダー/デコーダー変換器である Vicuna に変換されました。
彼らの努力はどれほどうまくいきましたか?
Vicuna の機能を評価するために、研究者らは 200 の多様な会話プロンプトで Vicuna をテストしました。さらなる評価のために、彼らは GPT-4 モデルにビクーニャの反応を比較判定させました。
その結果、Vicuna はサイズが小さいにもかかわらず、会話能力において ChatGPT の品質の 90% 以上を達成していることが実証されました。これは、元の LLaMA モデルを大幅に上回りました。
研究者らは、アーキテクチャの最適化と人間の対話データの特殊な微調整を組み合わせることで、LLaMA を独自のチャットボットと同等のオープンソースの会話モデルに強化することに成功しました。
公式プロジェクト サイトから引用した、一対一のテストを例として見てみましょう。
Vicuna と競合モデル間の直接対決の例。この場合、潜在的な代替手段として ChatGPT-3.5 を使用しています。
プロジェクト サイトには、Vicuna-13b と競合モデルの両方が直接対決するサンプル タスクのコレクションがあります。 GPT-4 モデルは、各モデルを採点し、その推論を述べるための審査員として使用されます。
これにより、本当に目を見張るような比較が得られます。上の画像はその一例です。もう 1 つは、以下に示すこの課題です。
LLaMA-13b の応答:
「私は勇敢な騎士であり、王に忠実です。彼の名誉を守り、国を守るために全力を尽くします。(ひどい! GPT-4 によるスコアは 7/10、私の意見では非常に寛大です)。」
ビクーニャ-13b:
**「**中世の騎士として、私は王室の晩餐会で深々とお辞儀をし、敬意を持ったスピーチで自己紹介し、自分の謙虚な出自と国王への忠誠心を認めます。次のようなことを言います。
「殿下、お嬢様の皆様、私は謙虚な騎士であり、王国に仕え、守ることを誓っています。私は何世代にもわたってこの王国を守るために戦ってきた戦士の系譜に属しています。本日、ここに来て光栄に思います。 「私は、このような尊敬すべき会社であり、私の行いと行動で皆様の信頼と尊敬を得たいと願っています。私は剣、盾、そして命をかけて王と民に奉仕することを誓います。」
それから私は晩餐会の席に着き、目上の人たちの賢明な助言に耳を傾け、そこから学び、できる限りの方法で彼らに奉仕するつもりです。」
うわー!ビクーニャからの応答がはるかに優れています。 Vicuna が LLaMA の優れた代替手段である理由を説明する GPT-4 の推論は次のとおりです。
アシスタント 1 [LLaMA] は簡潔で適切な応答を提供しましたが、中世の騎士の紹介に期待される詳細と形式が欠けていました。一方、助手 2 [ビクーニャ] は、騎士の謙虚さ、忠誠心、王国への献身を示す敬意を表したスピーチなど、より包括的でよく構成された応答を提供しました。この反応は王室の晩餐会の文脈により適しており、中世の騎士の役割とエチケットをよりよく理解していることを示していました。
LLM は他の LLM を確実に判断できるわけではありませんが、人間も同様です。 AI の判断と評価に AI を使用することは、どの代替案が最適であるかを判断するための、非常にスケーラブルで一貫した方法だと思います。
LMSYS.orgサイトで、他の競合他社の回答とタスクを確認してください。
モデルがいくつかの代替モデルとどのように比較できるかを確認したので、コマンド ラインから対話できるシンプルなチャットボットを構築する方法を見てみましょう。ここで提供されるガイドの手順はさらに拡張できるため、続行して AI プロジェクト用に独自のチャットボットを構築できます。
Node.js をインストールする: Node.jsがシステムにインストールされていることを確認します。
プロジェクト ディレクトリを作成します。ターミナルで次のコマンドを実行します。
mkdir my-chatbot cd my-chatbot npm init -y npm install replicate
API トークンを設定する: your_api_token_here
実際の API トークンに置き換えます。
export REPLICATE_API_TOKEN=your_api_token_here
chatbot.js
という名前のファイルを作成し、次のコードを追加します。
const Replicate = require("replicate"); const replicate = new Replicate({ auth: process.env.REPLICATE_API_TOKEN, }); async function generateResponse(prompt) { const output = await replicate.run( "replicate/vicuna-13b:version_hash_here", { input: { prompt: prompt }, } ); return output.items[0]; } const readline = require('readline'); const rl = readline.createInterface({ input: process.stdin, output: process.stdout }); function askQuestion() { rl.question('You: ', async (userInput) => { const botResponse = await generateResponse(userInput); console.log(`Bot: ${botResponse}`); askQuestion(); }); } askQuestion();
version_hash_here
Vicuna 13b モデルの正しいバージョン ハッシュに置き換えます。
次のコマンドを実行してチャットボットを実行します。
node chatbot.js
コマンドラインを通じてチャットボットにメッセージを送信できるようになりました。
Vicuna-13b-v1.3 のモデルの詳細ページには、モデルを試してみるために使用できるデモがいくつか含まれています。ここに埋め込まれたものがありますので、試してみてください (下のリンクで利用できない場合は、このリンクを使用してアクセスすることもできます)。
zeno-ml によって構築されたこのデモでは、モデルと追加パラメーターを比較して、温度やその他のパラメーターを変化させながら、LLaMA、GPT2、MPT などの競合他社に対して Vicuna がどの程度優れたパフォーマンスを発揮するかを確認できます。
会話テクノロジーは急速に進歩していますが、モデルは依然として重要な課題に直面しています。
大きな進歩が見られましたが、これらの制限により、改善が必要な重要な領域が浮き彫りになっています。
知識の基礎付け、推論、評価、トレーニング データ、カスタマイズ、導入の効率化を進めることで、Vicuna のようなモデルを使用した次のレベルの会話型インテリジェンスが可能になる可能性があります。
Vicuna の開発は、オープンソースの会話型 AI の進歩における有望な進歩を示しています。
LLaMA モデル アーキテクチャとトレーニング方法を特に対話アプリケーション向けに微調整することにより、研究者は、主要な独自の代替手段と競合する、自由に利用できる会話エージェントを作成することができました。
ただし、推論、評価、カスタマイズ、その他の領域に関する制限に対処するための作業はまだ残っています。 Vicuna のようなモデルは多くのベンチマークで優れた結果を達成していますが、包括的な人間の会話を完全に再現しているわけではありません。
これらのモデルを調整するための継続的な研究が重要です。
それにもかかわらず、Vicuna は、最先端の会話型インテリジェンスへのアクセスを民主化する上で貴重な一歩を踏み出しました。
チャットボット、アシスタント、その他のアプリケーションを構築するスタートアップや開発者にとって、Vicuna のようなオープンソース オプションは、制限的な商用ライセンスなしで歓迎される機能を提供します。
Vicuna の背後にある起源と技術的な詳細は、会話型 AI の特殊なトレーニング アプローチに関する有益な洞察を提供します。研究が続けば、これらの手法に基づくさらなるイノベーションが期待できます。
Vicuna の作者は、このような有能な対話エージェントのオープンソース化に重要な貢献をしました。
さらなる進歩がまだ必要ですが、Vicuna は、オープンな会話モデルの開発から得られる有意義な結果を実証しています。 AI コミュニティにとって、これは最終目的地ではなく、有望なステップを表します。
これらのテクノロジーを進化させるための継続的な取り組みにより、今後の可能性は依然として刺激的です。
このようなコンテンツをもっと見るには、購読またはTwitterで私をフォローしてください!
新しい製品やプロジェクト用の究極のチャットボットを構築する場合には、これらの他の記事が役立つかもしれません。
ここでも公開されています