GPT-3などの大規模言語モデル (LLM) は、自然言語処理 (NLP) の分野で急速に最も重要な技術進歩の 1 つになりました。
LLM は、言語翻訳、テキストの要約、質問応答、情報検索、推奨エンジン、言語ベースのロボット工学など、さまざまなタスクを支援する大きな可能性を実証してきました。
ChatGPT のような大規模言語モデル (LLM) は、さまざまな自然言語処理タスクで優れたパフォーマンスを示していますが、誤用の可能性があるため、対処する必要がある倫理的懸念が生じます。 LLM は、一貫した文脈に関連したテキストを生成する機能を備えているため、フェイク ニュースの作成や誤った情報の拡散に使用される可能性があり、社会に深刻な影響を与える可能性があります。
このような誤用は、ニュースメディアに対する信頼の低下や現実の歪んだ認識につながる可能性があります。さらに、LLM は盗作、知的財産の盗難、または偽の製品レビュー世代に利用される可能性があり、消費者を誤解させ、企業に悪影響を与える可能性があります。さらに、偽のソーシャルメディアアカウントを作成したり、オンラインディスカッションに影響を与えたりするなど、悪意のある目的で Web コンテンツを操作できる LLM の能力は、世論や政治的議論に悲惨な影響を与える可能性があります。
懸念が高まる中、おそらく次のような質問をする時期が来ているでしょう。
一方では、スタンフォードの DetectGPT は、モデルが書かれたテキストに割り当てる確率と、テキストの変更の確率を比較して検出します。
一方、Tom Goldstein のグループによって開発された透かしベースのアプローチは、検出可能性を効果的に高めるために提案されています。
ただし、ウォーターマーク (堅牢にトレーニングされていない) は、言い換えやなりすまし攻撃に対して脆弱であることが Sadasivan によって示されています。 他。とクリシュナら。
コミュニティでは最近、AI が生成したテキストと人間が生成したテキストを区別できるかどうかについて激しい議論が交わされており、 AI を検出できないために「AI の維持」に失敗して AGI の黙示録が起こるのではないかという議論も行われています。生成されたコンテンツ。テクノロジー業界のリーダーらは、大規模言語モデル(LLM)トレーニングの6カ月間の停止も要求した。
Yann Lecun や Andrew Ng などの学術指導者は、この AI の禁止に反対しています。
Meta 社の副社長兼チーフ AI サイエンティストであるYann LeCun 氏は次のように述べています。
「なぜ知識の進歩が遅れるのでしょうか?」
この危機的な時期に、私たちは情報理論のレンズを通して AI が生成したテキストの検出可能性を研究しています。私たちは楽観論の証拠を提供します。サポート全体にわたって人間と機械のテキストの分布がまったく同じでない限り、ほぼ常に検出できるはずです。
検出可能性は、チャーノフ情報とさらなる観測値との正確なトレードオフに依存します。複数のサンプルを使用した尤度比ベースの検出器によって、AUROC の達成可能な上限 (0 から 1 の間であり、高いほど検出可能であることを意味します) を証明します。サンプル番号が増加すると、AUROC は 1 まで指数関数的に増加します。
この情報の理論的結果は、LLM のウォーターマークの設計をガイドする可能性があるチェルノフ情報と呼ばれる重要な量に依存しています。実験により、単語レベルの検出では検出できなかったものが、段落レベルの検出に切り替えると検出可能になることを確認しました。
この情報の理論的結果は、LLM のウォーターマークの設計をガイドする可能性がある、チェルノフ情報と呼ばれる重要な量に依存しています。 AI 生成のテキスト検出の可能性を導くために、サンプルの複雑さの限界を導き出しました。
複数のデータセットで段落レベルの検出に切り替えると、単語レベルでは検出不能でも検出可能になります。検出の長さを長くすると、ZeroShot の検出精度が大幅に向上します。
結局のところ、 #LLMの悪用に対処する正しい方法は、禁止するのではなく修正することだと考えています。
しかし、知識が危険をもたらすなら、解決策は無知であるということは、まだ子供だった私には信じられませんでした。私にとって、解決策は知恵でなければならないように常に思えました。あなたは危険に目を向けることを拒否したのではなく、むしろ危険に安全に対処する方法を学びました。
アイザック・アシモフ
注: これは最初のステップであり、私たちの調査では、イノベーションを促進し、これらの強力なツールの倫理的な使用を保証するフレームワークとガイドラインを開発するための継続的な研究が必要です。
ゲスト寄稿者:
ソウラディップ・チャクラボルティ博士メリーランド大学の大学院生、アムリット・シン・ベディ氏、メリーランド大学研究員、シチェン・ズー氏、バン・アン氏、ディネシュ・マノチャ氏、フロン・ファン氏は、情報理論のレンズを通してAIが生成したテキストの検出可能性を研究しています。この記事で表明された意見は、厳密に著者の意見です。
この記事は元々、Souradip Chakraborty 博士によって公開されました。メリーランド大学大学院生、Amrit Singh Bedi、メリーランド大学研究員、Sicheng Zhu、Bang An、Dinesh Manocha、Furong Huang がThe Tech Panda に出演。