paint-brush
無修正の AI モデルを使用し、データでトレーニングする方法@jeferson
30,160 測定値
30,160 測定値

無修正の AI モデルを使用し、データでトレーニングする方法

Jeferson Borba3m2023/12/25
Read on Terminal Reader

長すぎる; 読むには

Mistral はフランスのスタートアップで、元 Meta と DeepMind の研究者によって設立されました。 Apache 2.0 ライセンスに基づいて、このモデルは LLaMA 2 や ChatGPT 3.5 よりも強力であると主張していますが、そのすべてが完全なオープンソースです。私たちはそれを無修正で使用する方法を学び、データを使用してトレーニングする方法を発見するつもりです。
featured image - 無修正の AI モデルを使用し、データでトレーニングする方法
Jeferson Borba HackerNoon profile picture
0-item

ChatGPT が AI 業界で唯一のソリューションだった時代は遠い昔になりました。 Meta と Google がそれぞれ開発した LLaMA や Gemini などの新しいプレーヤーがこの分野に参入しました。ツールや実装は異なりますが、クローズドソース (LLaMA の一部を除く) であり、大手テクノロジー企業の管理下にあるという共通点があります。


この記事では、ChatGPT 3.5 よりも優れたパフォーマンスを誇り、ローカルで実行できるオープンソース ツールを誇る、AI 業界の新たな競争相手について考察します。また、それを無修正で使用する方法と、独自のデータを使用してトレーニングする方法についても学びます。

ミストラル 8x7B の紹介

Mistral は、Meta と DeepMind の元研究者によって設立されたフランスのスタートアップです。広範な知識と経験を活用して、彼らは 4 億 1,500 万米ドルの投資調達に成功し、ミストラルの評価額は 20 億米ドルになりました。

ミストラル 8x7B マグネット リンク、12 月 8 日に投稿

ミストラルのチームは、X 上に新しいモデルであるミストラル 8x7B へのトレント リンクをドロップしたときから注目を集め始めました。 Apache 2.0 ライセンスによると、このモデルは LLaMA 2 や ChatGPT 3.5 よりも強力であるだけでなく、完全にオープンソースでもあります。

ミストラルの力と能力

  • 32k トークンのコンテキストを処理します。


  • 英語、ドイツ語、スペイン語、イタリア語、フランス語で機能します。


  • コード生成時に優れたパフォーマンスを発揮します。


  • 指示に従うモデルに変換できます。


テストでは、Mistral は顕著なパワーを実証し、ほとんどのベンチマークで LLaMA 2 70B を上回り、他のベンチマークでも ChatGPT 3.5 と同等かそれを上回りました。

ミストラル、LLaMA、GPTの比較(https://mistral.ai/news/mixtral-of-expertsより)

ミストラルをローカルで実行する

図や表を超えて、実践的に始めてみましょう。まず、ローカルでの実行に役立つツールOllamaが必要です。 MacOS ユーザーはここからファイルをダウンロードできます。 Linux または WSL ユーザーの場合は、次のコマンドをターミナルに貼り付けます。

 curl https://ollama.ai/install.sh | sh


その後、LLM をローカルで実行できますが、単に AI がランダムな質問に答えることを目指しているわけではありません。それが ChatGPT の目的です。私たちは、好みに応じて微調整できる無修正の AI を目指しています。


これを考慮して、すべての制約を解除した Mistral のカスタム バージョンである dolphin-mistral を使用します。 dolphin-mistral がこれらの制約をどのように削除したかについて詳しくは、作成者によるこの記事をご覧ください。


ターミナルで次のコマンドを実行して、コンピューター上で Ollama の実行を開始します。

 ollama serve


次に、別のターミナルで次を実行します。

 ollama run dolphin-mistral:latest


初回ダウンロードには 26GB のダウンロードが必要なため、時間がかかる場合があります。ダウンロードが完了すると、mistral は入力を待ちます。

イルカ・ミストラルの促し

dolphin-mistral を実行するには、大量のシステム リソース、特に RAM が必要であることに注意してください。

イルカ・ミストラルによるリソースの使用状況

独自のモデルをトレーニングする

ここで、データを使用してミストラルをトレーニングできる可能性について疑問に思っているかもしれません。答えは大きくイエスです。


まず、Hugging Face でアカウントを作成し (まだお持ちでない場合)、新しいスペースを作成します。

ハグフェイスの空間づくり

Autotrain 用に Docker を選択する

スペース SDK の選択

ここから、モデルを選択し、データをアップロードし、トレーニングを開始できます。ハードウェアの需要により、自宅のコンピューターでモデルをトレーニングするのは困難な場合があります。


Hugging Face のようなサービスはコンピューティング能力を (有料で) 提供しますが、プロセスを迅速化するために Amazon Bedrock や Google Vertex AI を検討することもできます。