ChatGPT が AI 業界で唯一のソリューションだった時代は遠い昔になりました。 Meta と Google がそれぞれ開発した LLaMA や Gemini などの新しいプレーヤーがこの分野に参入しました。ツールや実装は異なりますが、クローズドソース (LLaMA の一部を除く) であり、大手テクノロジー企業の管理下にあるという共通点があります。
この記事では、ChatGPT 3.5 よりも優れたパフォーマンスを誇り、ローカルで実行できるオープンソース ツールを誇る、AI 業界の新たな競争相手について考察します。また、それを無修正で使用する方法と、独自のデータを使用してトレーニングする方法についても学びます。
Mistral は、Meta と DeepMind の元研究者によって設立されたフランスのスタートアップです。広範な知識と経験を活用して、彼らは 4 億 1,500 万米ドルの投資調達に成功し、ミストラルの評価額は 20 億米ドルになりました。
ミストラルのチームは、X 上に新しいモデルであるミストラル 8x7B へのトレント リンクをドロップしたときから注目を集め始めました。 Apache 2.0 ライセンスによると、このモデルは LLaMA 2 や ChatGPT 3.5 よりも強力であるだけでなく、完全にオープンソースでもあります。
テストでは、Mistral は顕著なパワーを実証し、ほとんどのベンチマークで LLaMA 2 70B を上回り、他のベンチマークでも ChatGPT 3.5 と同等かそれを上回りました。
図や表を超えて、実践的に始めてみましょう。まず、ローカルでの実行に役立つツールOllamaが必要です。 MacOS ユーザーはここからファイルをダウンロードできます。 Linux または WSL ユーザーの場合は、次のコマンドをターミナルに貼り付けます。
curl https://ollama.ai/install.sh | sh
その後、LLM をローカルで実行できますが、単に AI がランダムな質問に答えることを目指しているわけではありません。それが ChatGPT の目的です。私たちは、好みに応じて微調整できる無修正の AI を目指しています。
これを考慮して、すべての制約を解除した Mistral のカスタム バージョンである dolphin-mistral を使用します。 dolphin-mistral がこれらの制約をどのように削除したかについて詳しくは、作成者によるこの記事をご覧ください。
ターミナルで次のコマンドを実行して、コンピューター上で Ollama の実行を開始します。
ollama serve
次に、別のターミナルで次を実行します。
ollama run dolphin-mistral:latest
初回ダウンロードには 26GB のダウンロードが必要なため、時間がかかる場合があります。ダウンロードが完了すると、mistral は入力を待ちます。
dolphin-mistral を実行するには、大量のシステム リソース、特に RAM が必要であることに注意してください。
ここで、データを使用してミストラルをトレーニングできる可能性について疑問に思っているかもしれません。答えは大きくイエスです。
まず、Hugging Face でアカウントを作成し (まだお持ちでない場合)、新しいスペースを作成します。
Autotrain 用に Docker を選択する
ここから、モデルを選択し、データをアップロードし、トレーニングを開始できます。ハードウェアの需要により、自宅のコンピューターでモデルをトレーニングするのは困難な場合があります。
Hugging Face のようなサービスはコンピューティング能力を (有料で) 提供しますが、プロセスを迅速化するために Amazon Bedrock や Google Vertex AI を検討することもできます。