paint-brush
GPT ベースの AI (ChatGPT) の究極の真実の機械としてのブロックチェーン@badery
3,228 測定値
3,228 測定値

GPT ベースの AI (ChatGPT) の究極の真実の機械としてのブロックチェーン

bader6m2022/12/13
Read on Terminal Reader
Read this story w/o Javascript

長すぎる; 読むには

AIが世界を変えることは間違いありません。 ChatGPT を使用して、このテクノロジーがどのように彼らの生活を一晩で変えることができるかを一般に示しました。 AI の整合性を確保することが次のステップです。そこに来るデータ、それを開発した人、その正確な動機/目的を検証することは、倫理基準を維持する上で非常に重要であり、ひいてはそのようなモデルに対する公衆の信頼を維持する上で重要です。 本当にweb3のように感じ始めています!
featured image - GPT ベースの AI (ChatGPT) の究極の真実の機械としてのブロックチェーン
bader HackerNoon profile picture
0-item

文字通りの岩の下 (岩の上ではなく) に住んでいない限り、おそらく ChatGPT について聞いたことがあるでしょう。ChatGPT は、革新的でディストピアを生み出す対話ベースの AI システムです。


その非常に会話的な方法により、ユーザーはそれを限界まで押し上げています。


ほとんどの人は、リアルタイムでコードを記述したり、間違いのないオリジナルのエッセイを作成したりする能力に畏敬の念を抱いています。


リアルタイムでコードを書く ChatGPT。


一見すると、ChatGPT は非常に印象的です。この技術は数年前から存在しており、他の企業でも過去に同様の取り組みを開始していましたが、ChatGPT は 6 日で100 万人のユーザーを獲得することができました。


製品の観点からは、ChatGPT が市場のニーズを満たしていることは確かに証明されました。それは本質的に、より簡潔で実用的な結果をリアルタイムで提供するインタラクティブな Google 検索を可能にするため、ギグ エコノミーを永遠に変える可能性が高いです。


https://twitter.com/jdjkelly/status/1598021488795586561


しかし、AI の会話は倫理の会話と一致することが多く、多くの人が、このモデルをすべての人が利用できるようにすることの潜在的な危険性に疑問を持ち始めました。


過去に示したように、人間は AI に発言してはならないことを教えることで悪口を言われてきました。


より哲学的なレベルでは、ChatGPT の真実のソースは何ですか?


他の将来の GPT ベースのシステムはどうですか?

AI のセキュリティを損なうことなく、どのようなバイアス、データセット、およびパラメーターが考慮されていることをどのように確認しますか?


これらの懸念 (「制限」と書かれています) は、OpenAI によって実際に認識されています。 ChatGPTを紹介する彼らの記事、しかし、これらの問題を解決するための解決策は提示されていません!

ChatGPTの簡単な内訳

避けられない AI チャットボットの蜂起を解決する前に、鳥瞰図から実際にどのように機能するかを簡単に説明します。


ChatGPT は GPT-3.5 に基づいています。GPT-3 のわずかに新しく、より優れたバージョンです。


GPT は Generative Pre-trained Transformer 3 の略です。


「これは、深層学習を使用して人間のようなテキストを生成する自己回帰言語モデルです。プロンプトとして最初のテキストを指定すると、プロンプトを継続するテキストが生成されます。」 - GPT-3、ウィキペディア.


簡単に言えば、人間が読めるテストを作成するために特別にトレーニングされた予測言語処理モデルです。この概念は、チューリング テストを使用してテストされます。目標は、AI によって生成されたテキストが、人間が作成したテキストと区別できないようにすることです。


OpenAI から ChatGPT がどのように機能するかの詳細な分析 - https://openai.com/blog/chatgpt/


GPT は、正しい答えを予測しようとする必要があります。モデルのトレーニング中は、正しい答えが得られるまで内部変数を調整し続けます。


モデルをトレーニングする際には、単語の注目を追跡するなど、多くの要因が考慮されます。つまり、文内の単語の影響/ランキングです。


より技術的なレベルでの動作の詳細については、以下をお読みください。 OpenAIの研究はこちら。

ChatGPT は、この機能をユーザー フレンドリーな方法で真に公開した最初の企業でした。放物線状の成長を考えると、これは素晴らしいことでもあり、恐ろしいことでもあります。

GPT ベースのモデルの潜在的な危険性

ChatGPT のような GPT ベースの AI に起因する問題のほとんどは、次の引用に含まれています。


「本質的に、GPT-3 は、他の AI モデルと同様に、トレーニングされたデータと人間がこのデータを作成するのと同じくらい優れています。私たちが保持しているのと同じ信念、バイアス、エラー、虚偽が AI の応答に反映されています。また、ChatGPT のようなツールは知的で客観的で信頼できるものとして認識されるため、これらのモデルがもたらすものを信じる傾向があります。」 - 最も強力な AI の使用がよりシンプルになりました、Forbes


これらのモデルの主な問題は、供給されるデータです。 AI が実用化される前に、何十億もの単語やパラメーターを消費し、対話し、テストする必要があります。これらのデータセットは通常、特定の情報を含むようにフィルター処理およびキュレーションされます。


ChatGPT の場合、インターネットからデータを取得します。これにより、さまざまなソリューションをすぐに利用できるようになります (AI には指先がありますか?)。


ただし、これは、インターネットの暗い側面とそのバイアスの一部をもたらす可能性があることも意味します.


問題は AI 自体にあるのではなく、AI を作成するトレーニングとデータ収集プロセスを追跡しています。 *A* ソリューションだからといって、それが常に *正しい* ソリューションであるとは限りません! - https://twitter.com/gregisenberg/status/1601934568570949632


ある程度の確実性と透明性をもって、モデル トレーニングの経時的な履歴、そのソース、およびその全体的な行程を追跡および追跡できれば、それが生成する結果の信頼性について、はるかに優れた判断を下すことができます。


このようにして、特定の目的、動機、キュレートされたデータを持つ、より焦点を絞ったモデルで価値がより明確になります。


明確にするために言うと、OpenAI は、モデルにバイアスがかかる可能性があること、および信頼できる信頼できる情報源をある時点で確立する必要があることを認識しています。

そして、AI の作成に関する不変で透明性のある時系列の記録を保持するために、分散型のフォールト トレラントな台帳ほど優れたテクノロジはありません。

分散型台帳を使用して AI の作成を容易にする


ほとんどの人は、AI を一種の機能の「ブラック ボックス」と見なしており、データの出所、収集場所、どのような状況で、どのように動作するかは不明のままです。


しかし、新しい AI が作成されるたびに、関連する各プロセスが元帳に送信され、公開されているため、与えられたデータに基づいて AI がどのように動作するかを正確に認識できるとしたらどうでしょうか?


ブロックチェーンは、検証可能で公平な真実の記録を保持するのに優れています。


明らかに、これは ChatGPT のような公開 AI のみに適用されます。データセットから、誰が関与したか、重要なパラメーター、潜在的なバイアスまで、すべてをオンチェーンの存在として保持できます。


AI が徐々にトレーニングされて改善されると、元帳もリアルタイムで更新されます。このようにして、トレーニングを担当する開発者でさえ、AI がパフォーマンスに関してどのように動作しているかを正確に時系列で把握することができます。


さらに重要なことに、台帳は、AI の作成の出所によって裏付けられた、真実の直接的な情報源を提供します。


言い換えれば、私たちは AI がその作成に責任を持ち、AI の起源、動機、トレーニング レベルからの影響を正確に追跡します。


これにより、データの一貫性と出所が保証されます。データの整合性は常に低いです。ブロックチェーンのような記録管理システムを使用して、データの各バイトを AI の元の場所まで追跡できます。


これは、AI のブラック ボックスで検出するのが難しい可能性のあるバイアスを特定し、「悪意のある」AI から生じる可能性のあるデータの誤った伝播を防ぐのに役立ちます。


検証チェックマークのようなものだと考えてください。 AI にチェックマークが付いていれば有効です。そうでない場合、その正当性を疑う理由があります。


Polkadotのようなブロックチェーンで示されているように、組織がチェーン上で特定のルールやメカニズムに投票することも完全に可能です。 AI についても同様の概念を適用できます。AI の正当性、データの完全性などに関するさまざまな要素を決定するために投票を行うことができます。


AI とそのデータセットに関する投票は、AI の方向性や影響力を変えるためにも、オンチェーンで行うことができます。


https://polkadot.network/blog/gov2-polkadots-next-generation-of-decentralized-governance/

結局のところ、これらのモデルは、データが与えられた場合にのみ機能します。


時間の経過とともに、データが複雑になる可能性があります。ソースを制御するのは誰ですか? ソースが有害な可能性があるものに変わるとはどういうことですか?


確かに、OpenAI には Moderation API があります。これは、有害と見なされるものを検出する別の AI であり、正しい方向への非常に価値のあるステップです。
https://openai.com/blog/new-and-improved-content-moderation-tooling/


しかし、事実の証拠、つまり歴史であっても、インターネットベースのデータは何度も精査し、チェックする必要があります。


これらのサービスに依存する一般市民が増えるにつれて、信頼できる情報を確保することが重要になります。

結論

AIが世界を変えることは間違いありません。 ChatGPT を使用して、このテクノロジーが一晩で彼らの生活をどのように変えることができるかを一般に示しました。


AI の整合性を確保することが次のステップです。そこに来るデータ、それを開発した人、その正確な動機/目的を検証することは、倫理基準を維持する上で非常に重要であり、ひいてはそのようなモデルに対する公衆の信頼を維持する上で重要です。


本当に web3 のように感じ始めています!