AI 革命は何十年にもわたって起こりました。それは興奮に満ちた分野でしたが、失望や「 」によって中断されることもよくありました。しかし最近、何かが変わりました。 ChatGPT、Claude、Bard などの大規模言語モデル (LLM) は、AI を研究室の好奇心から へと一気に押し上げました。 AI の冬 主流 この変化は AI の勝利だけでなく、大規模で乱雑なデータの複雑さに対する勝利でもありました。ことわざにあるように、「ゴミは入ったらゴミは出る」。基礎となるデータの改善、つまり LLM の改善に重点を置いた新しいツールが登場しています。 LLM の二重の課題 「大規模言語モデル」という用語には 2 つの大きな課題が含まれています。まず、膨大な量のデータです。 GPT-4 のデータは 1 (100 万ギガバイト) を超えており、これには何百万もの書籍、ブログ、ソーシャル メディアの投稿、ビデオ トランスクリプトなどが含まれます。この巨大なスケールには膨大な可能性が秘められていますが、物流面での重要な考慮事項も伴います。 ペタバイト 第二に、自然言語の複雑さです。コンテキストに依存し、曖昧で多様な言語データは、最高のアルゴリズムでも飼い慣らすのが難しい野獣です。このすべてのデータに正確にラベルを付けることは不可能であり、必然的に、最先端の LLM であっても、大量の誤ってラベルが付けられたデータに基づいてトレーニングされることになります。 これらの課題に直面する中で、新しいデータ中心のツールと方法論が登場し、AI の能力における真の飛躍を可能にしました。 Cleanlab などのソリューションは、多様なデータを収集し、品質管理を自動化し、言語を AI モデルに適した形式に処理する方法を提供し始めました。 これらのツールは、単に段階的な改善を提供するだけではありません。彼らは AI データ処理へのアプローチを根本的に再構築しました。彼らは、大規模な言語データを処理するタスクを、手動でエラーが発生しやすいプロセスから自動化された正確なプロセスに変換し、この分野を民主化し、前例のないペースでの進歩を可能にしました。 データ中心 AI が必要な理由 (Python デモ付き) AI では、現実世界のデータセット 含まれています。これらの不完全性は、トレーニングと評価を大きく妨げます。データ中心の AI は、データセット自体の品質を向上させることに重点を置いています。 には 7 ~ 50% の範囲のアノテーション エラーが たとえば、OpenAI の この強調を示しています。「私たちは、すべての良好なデータを残すことよりも、すべての不良データをフィルタリングして取り除くことを優先しました。なぜなら、後でより多くのデータを使ってモデルを微調整して、新しいことを教えることはいつでも可能ですが、すでに学習したことをモデルに忘れさせるのははるかに難しいからです。」 戦略は ただし、データを手動でフィルタリングするアプローチは時間と費用がかかります。 今日データ中心の AI を実践するために人気のあるオープンソース フレームワークです。これにより、トレーニングされた ML モデルの出力に対してデータ品質アルゴリズムを実行して、ラベル エラー、外れ値、ドリフトなどの一般的なデータセットの問題を検出できます。 Cleanlab パッケージは、 わずか数行のコードで、画像、テキスト、表形式、音声など、さまざまな種類のデータの問題を自動的に検出して特定できます。 Cleanlab パッケージを使用すると、既存のコードを変更せずに、データセットとモデルを改善する方法を決定し、ML モデルを再トレーニングして、パフォーマンスの向上を確認できます。 一方、Cleanlab Studio は、Cleanlab パッケージの単なる拡張ではありません。これは、現実世界のデータセットの問題を見つけて修正するように設計されたノーコード プラットフォームです。問題の検出にとどまらず、データのキュレーションと修正の処理をさらに進め、生データを信頼できる ML または分析に変換する困難な部分のほぼすべてを自動化します。 Cleanlab パッケージを使用して、データ中心の AI の力を実証してみましょう。 1. データの準備と微調整 まず、 から始めます。 セットと セットがロードされていることを確認してください。このデモでは、最初に Cleanlab を使用せずに 3 クラス分類用に Davinci LLM を微調整し、次にデータ中心で精度を向上させる方法を確認します。単純な bash コマンドを実行してモデルをトレーニングできます。 スタンフォード ポライトネス データセット トレイン テスト !openai api fine_tunes.create -t "train_prepared.jsonl" -v "test_prepared.jsonl" --compute_classification_metrics --classification_n_classes 3 -m davinci --suffix "baseline" それが完了したら、 エンドポイントをクエリしてテストの精度を確認できます。 fine_tunes.results !openai api fine_tunes.results -i ft-9800F2gcVNzyMdTLKcMqAtJ5 > baseline.csv `df = pd.read_csv('baseline.csv') baseline_acc = df.iloc[-1]['分類/精度']` 63% の精度の結果が得られました。これを改善できるかどうか見てみましょう。 2. 予測クラス確率を取得する 次に、OpenAI の API を使用してエンベディングを計算し、ロジスティック回帰モデルを当てはめて、サンプル外の予測クラス確率を取得しましょう。 # Get embeddings from OpenAI. from openai.embeddings_utils import get_embedding embedding_model = "text-similarity-davinci-001" train["embedding"] = train.prompt.apply(lambda x: get_embedding(x, engine=embedding_model)) embeddings = train["embedding"].values # Get out-of-sample predicted class probabilities via cross-validation. from sklearn.linear_model import LogisticRegression model = LogisticRegression() labels = train["completion"].values pred_probs = cross_val_predict(estimator=model, X=embeddings, y=labels, cv=10, method="predict_proba") Cleanlab は、たった 1 行のコードで、トレーニング データセット内のどのサンプルにラベルの問題があるかを推定します。 from cleanlab.filter import find_label_issues これで、ラベルの問題があると推定される例のインデックスを取得できるようになりました。 issue_idx = find_label_issues(labels, pred_probs, return_indices_ranked_by='self_confidence') # sort indices by likelihood of label error 3. ラベルの問題をフィルタリングして再トレーニングする これで、ラベルが誤っている可能性のあるサンプルのインデックスが自動的に抽出されたので、それらを削除して新しい分類子をトレーニングできるようになりました。 # Remove the label errors train_cl = train.drop(issue_idx).reset_index(drop=True) format_data(train_cl, "train_cl.jsonl") 次に、より優れたデータを使用して、より堅牢な分類器をトレーニングしましょう。 !openai api fine_tunes.create -t "train_cl_prepared.jsonl" -v "test_prepared.jsonl" --compute_classification_metrics --classification_n_classes 3 -m davinci --suffix "dropped" # Evaluate model on test data !openai api fine_tunes.results -i ft-InhTRQGu11gIDlVJUt0LYbEx > cleanlab.csv df = pd.read_csv('cleanlab.csv') dropped_acc = df.iloc[-1]['classification/accuracy'] データセットを変更せずに自動的に改善するだけで、最先端の微調整可能なモデル (GPT-4 は微調整できないため、GPT-3) が改善され、66% 以上の精度が得られました。モデルに。 Cleanlab Studio を使用すると、間違ったラベルを完全に削除するのではなく自動的に修正することもできるため、精度がさらに向上します。 Cleanlab の によると、これには最大 77% の精度が必要です。 ガイド テイクアウト Cleanlab のようなデータ中心のツールを使用すると、データとラベルの問題を効率的に見つけて修正でき、Davinci のような LLM のパフォーマンスの大幅な向上につながります。このアプローチでは、モデル アーキテクチャやハイパーパラメーターは変更されず、トレーニング データの品質を向上させることだけに重点が置かれます。 このガイドで概説されているアプローチは、GPT-5 のような将来の高度な LLM を使用する場合でも、AI モデルの精度と堅牢性をさらに高める鍵となる可能性があります。