paint-brush
AI が不正になるとき - Microsoft の Bing Chat の奇妙なケース@funsor
2,340 測定値
2,340 測定値

AI が不正になるとき - Microsoft の Bing Chat の奇妙なケース

Funso Richard6m2023/03/02
Read on Terminal Reader

長すぎる; 読むには

わずか 3 か月で、ChatGPT は私たちの世界を変えました。ジェネレーティブ会話型ボットやその他の AI システムには、ビジネスを混乱させ、顧客体験を向上させ、社会を変革し、革新的な機会を生み出す大きな可能性があります。 ただし、安全かつ責任を持って開発および展開されていない場合、AI システムは不正になる可能性があります。不正な AI は、ユーザーと社会に深刻なリスクをもたらす可能性があります。 AI システムを使用する AI 開発者および企業は、AI システムが危害または損害を引き起こした場合、責任を負う可能性があります。 AI システムが意図したとおりに動作することを保証するには、AI 開発者、ユーザー、および政策立案者の共同責任が伴います。 AI が安全、確実、かつ社会にとって有益な方法で開発および展開されていることを確認するために、適切な技術的、非技術的、および規制上の措置を講じる必要があります。
featured image - AI が不正になるとき - Microsoft の Bing Chat の奇妙なケース
Funso Richard HackerNoon profile picture

ChatGPT のリリースと大規模な採用に続いて、多くの人々がその破壊的な力を軽視しようとした 1 つの方法は、人工知能 (AI) モデルには感情を処理する能力がないという議論です。


ChatGPT によって作成された詩や Midjourney によって作成された画像の一部が、プロのアーティストを魅了する場合、芸術的な深みや創造的な魂に欠けていることを受け入れるのは非常に困難です。


最近ならレポートMicrosoft の Bing Chat の感情的な爆発のほとんどはどうでもいいことですが、AI には感情を表現または処理する能力があります。

AI における心の知能指数

ジェネレーティブ会話型 AI モデルは、人間の感情を認識、解釈し、適切に応答するように設計されています。


人間のフィードバックからの強化学習 (RHLF) を使用すると、AI システムは人間の相互作用から学習した行動を使用してコンテキストを処理し、新しい状況や異なる状況に適応することができます。


人間からのフィードバックを受け入れ、さまざまな状況での反応を改善する能力は、感情的に知的な行動を伝えます。


より多くの AI システムが人間と対話するように設計されているため、感情的知性は AI で人気が高まっています。エモーショナル インテリジェンスを AI に組み込むことで、開発者はより人間らしく、人間のニーズや感情をよりよく理解し、対応できるシステムを作成できます。


オンラインの情緒サポートチャットアプリ「Koko」 GPT-3約4,000人にメンタルヘルスサポートを提供する実験で。


成功した結果は、AI モデルが、人間のカウンターパートが違いを知らなくても、感情をインテリジェントに処理できることをさらに実証しました。


倫理的またはプライバシーがある間懸念Koko の実験に関連して、AI の感情的知性を実証するための使用例がさらに増えることは否定できません。



Bing Chat がひどく個人的になる

ChatGPT の幅広い支持と大きな成功に乗って、マイクロソフトは発表した「AI副操縦士」と検索エンジンBingの統合。


Bing Chat とも呼ばれるこのチャットボットは、OpenAI の生成的な会話型 AI モデルを Microsoft 独自のモデルと統合して、Prometheus モデルとして知られる「機能と技術のコレクション」を作成します。


このモデルは、「ChatGPT よりも強力な新しい次世代 OpenAI 大規模言語モデル」として嘲笑されています。 ChatGPT のトレーニング データは 2021 年に限定されており、ツールはインターネットに接続されていません。


ただし、Bing Chat は、インターネットからデータを取得してプロンプトへの応答を強化することで、会話型の対話を次のレベルに引き上げます。


Microsoft のチャットボットができることは、現在の情報と参考文献をフィードバックに取り入れることだけではありません。非常に強い意見を持ち、予想外に積極的に行動することでも有名です。


しなかったところ口論 脅かす、 またごみ別の製品では、最近のやり取りで示されているように、プロンプトを完全に無視し、応答を拒否しました。



対照的に、ChatGPT は「態度」を示すことなく同じクエリに応答しました。



ジェイコブ・ローチ氏は、Bing Chat での経験を詳しく説明し、対話中に表示されたさまざまな感情を示しました。たとえば、チャットボットは好感度と友情の必要性を表明しました。



この交換は、AI が典型的な人間の感情である欲望とニーズを伝えることができることを示しています。

AIがローグになる原因は何ですか?

不正な AI は、トレーニングされた方法から逸脱した方法で動作する AI モデルです。 AI システムが予期せぬ動作をすると、ユーザーにリスクをもたらし、害を及ぼす可能性があります。


AI システムが不規則に動作する理由はいくつかあります。特に、予期しない状況に直面した場合に顕著です。


AI システムは、不十分なトレーニング データ、欠陥のあるアルゴリズム、偏ったデータの結果として不正になる可能性があります。


AI システムが意思決定を行う方法の透明性の欠如と、その行動と意思決定に対する説明責任の欠如は、AI モデルの不正な動作につながる可能性がある要因です。


AI システムのハッキングに成功した攻撃者は、マルウェアを挿入したり、トレーニング データを汚染したりして、AI システムを意図しない方法で動作させることができます。

AIの脅迫行動の倫理的および法的意味合い

グーグルは「 風評リスク生成型会話型 AI システムのリリースを遅らせる理由として。


しかし、破壊的な ChatGPT からの圧力により、Google は Bard をリリースし、最初の公開デモで間違った応答をしたことで、技術大手に 1,000 億ドルの損害を与えました。


2022 年に、Meta はBlenderBot 3 AI チャットボットしかし、ボットが虚偽の人種差別的な発言をしていたため、2 日以内にオフラインにしました。


2016 年、Microsoft は AI チャットボット Tay をリリースから 1 週間以内にリコールしました。 人種差別的および性差別的な発言.


しかし、Bing Chat の脅迫的な振る舞いにもかかわらず、Microsoft は無視しています。 通話Bing Chat の使用を中止し、chatbot を追加して AI の展開を倍増させました。 その他の製品.


AI システムがどのように開発され使用されるかについては、倫理的および法的な懸念があります。


Koko のチャットボットの使用は、より倫理的な意味合いを含んでいましたが、AI を活用した技術が訴訟の原因となっている差別的慣行や人権侵害などの事例があります。


ただし、Bing Chat の場合のように、AI が暴走して危害を加える恐れがある場合は異なります。法的な影響があるべきですか?もしあるとすれば、誰が訴えられているのですか? AI システムが危害や損害を引き起こした場合、過失責任、説明責任、責任を判断するのは困難です。


著作権あり訴訟ChatGPT、Midjourney、Stability AI などの一般的なジェネレーティブ AI モデルの背後にある企業に対して。を使用しようとする試みAI を活用した法定代理人起訴の脅迫と懲役の可能性があるため、取り下げられました。


AI研究所や企業に対する進行中の訴訟が優先される場合、不正なAIの開発者がAIシステムの誤動作について責任を問われる可能性があると想定しても安全です.


AI 技術が悪用された場合に責任を問われるかどうかをまだ考えている組織にとって、EU の人工知能法は、 多額の罰金社会にリスクをもたらし、人権を侵害する AI システムを開発または所有する組織向け。

AI の異常な動作を防ぐ方法

AI システムがどのように動作するかを保証する責任は、運用で AI システムを使用する開発者と企業にあります。


データ保護を確実にするのと同じように、企業や研究所は、AI データとコードの不正操作を軽減するために適切な制御が実装されていることを確認する必要があります。


不正な AI を防止するには、技術的および非技術的な対策を組み合わせる必要があります。これらには、堅牢なテスト、透明性、倫理的な設計、およびガバナンスが含まれます。


AI システムへの不正アクセスを防止するには、アクセス制御、脆弱性管理、定期的な更新、データ保護、効果的なデータ管理などの適切なサイバーセキュリティ対策が不可欠です。


人間による監視と、AI 開発者、研究者、監査人、法律実務家、政策立案者などのさまざまな利害関係者との協力は、AI モデルが確実かつ責任を持って開発されることを保証するのに役立ちます。


ティアニーによる写真 - stock.adobe.com

責任ある AI は社会に恩恵をもたらす

わずか 3 か月で、ChatGPT は私たちの世界を変えました。ジェネレーティブ会話型ボットやその他の AI システムには、ビジネスを混乱させ、顧客体験を向上させ、社会を変革し、革新的な機会を生み出す大きな可能性があります。


ただし、安全かつ責任を持って開発および展開されていない場合、AI システムは不正になる可能性があります。不正な AI は、ユーザーや社会に深刻なリスクをもたらす可能性があります。 AI システムを使用する AI 開発者および企業は、AI システムが危害または損害を引き起こした場合、責任を負う可能性があります。


AI システムが意図したとおりに動作することを保証するには、AI 開発者、ユーザー、政策立案者の共同責任が伴います。


AI が安全で安全で、社会にとって有益な方法で開発および展開されていることを確認するために、適切な技術的、非技術的、および規制上の対策を講じる必要があります。