ChatGPT のリリースと大規模な採用に続いて、多くの人々がその破壊的な力を軽視しようとした 1 つの方法は、人工知能 (AI) モデルには感情を処理する能力がないという議論です。
ChatGPT によって作成された詩や Midjourney によって作成された画像の一部が、プロのアーティストを魅了する場合、芸術的な深みや創造的な魂に欠けていることを受け入れるのは非常に困難です。
最近なら
ジェネレーティブ会話型 AI モデルは、人間の感情を認識、解釈し、適切に応答するように設計されています。
人間のフィードバックからの強化学習 (RHLF) を使用すると、AI システムは人間の相互作用から学習した行動を使用してコンテキストを処理し、新しい状況や異なる状況に適応することができます。
人間からのフィードバックを受け入れ、さまざまな状況での反応を改善する能力は、感情的に知的な行動を伝えます。
より多くの AI システムが人間と対話するように設計されているため、感情的知性は AI で人気が高まっています。エモーショナル インテリジェンスを AI に組み込むことで、開発者はより人間らしく、人間のニーズや感情をよりよく理解し、対応できるシステムを作成できます。
オンラインの情緒サポートチャットアプリ「Koko」
成功した結果は、AI モデルが、人間のカウンターパートが違いを知らなくても、感情をインテリジェントに処理できることをさらに実証しました。
倫理的またはプライバシーがある間
ChatGPT の幅広い支持と大きな成功に乗って、マイクロソフトは
Bing Chat とも呼ばれるこのチャットボットは、OpenAI の生成的な会話型 AI モデルを Microsoft 独自のモデルと統合して、Prometheus モデルとして知られる「機能と技術のコレクション」を作成します。
このモデルは、「ChatGPT よりも強力な新しい次世代 OpenAI 大規模言語モデル」として嘲笑されています。 ChatGPT のトレーニング データは 2021 年に限定されており、ツールはインターネットに接続されていません。
ただし、Bing Chat は、インターネットからデータを取得してプロンプトへの応答を強化することで、会話型の対話を次のレベルに引き上げます。
Microsoft のチャットボットができることは、現在の情報と参考文献をフィードバックに取り入れることだけではありません。非常に強い意見を持ち、予想外に積極的に行動することでも有名です。
しなかったところ
対照的に、ChatGPT は「態度」を示すことなく同じクエリに応答しました。
この交換は、AI が典型的な人間の感情である欲望とニーズを伝えることができることを示しています。
不正な AI は、トレーニングされた方法から逸脱した方法で動作する AI モデルです。 AI システムが予期せぬ動作をすると、ユーザーにリスクをもたらし、害を及ぼす可能性があります。
AI システムが不規則に動作する理由はいくつかあります。特に、予期しない状況に直面した場合に顕著です。
AI システムは、不十分なトレーニング データ、欠陥のあるアルゴリズム、偏ったデータの結果として不正になる可能性があります。
AI システムが意思決定を行う方法の透明性の欠如と、その行動と意思決定に対する説明責任の欠如は、AI モデルの不正な動作につながる可能性がある要因です。
AI システムのハッキングに成功した攻撃者は、マルウェアを挿入したり、トレーニング データを汚染したりして、AI システムを意図しない方法で動作させることができます。
グーグルは「
しかし、破壊的な ChatGPT からの圧力により、Google は Bard をリリースし、最初の公開デモで間違った応答をしたことで、技術大手に 1,000 億ドルの損害を与えました。
2022 年に、Meta は
2016 年、Microsoft は AI チャットボット Tay をリリースから 1 週間以内にリコールしました。
しかし、Bing Chat の脅迫的な振る舞いにもかかわらず、Microsoft は無視しています。
AI システムがどのように開発され使用されるかについては、倫理的および法的な懸念があります。
Koko のチャットボットの使用は、より倫理的な意味合いを含んでいましたが、AI を活用した技術が訴訟の原因となっている差別的慣行や人権侵害などの事例があります。
ただし、Bing Chat の場合のように、AI が暴走して危害を加える恐れがある場合は異なります。法的な影響があるべきですか?もしあるとすれば、誰が訴えられているのですか? AI システムが危害や損害を引き起こした場合、過失責任、説明責任、責任を判断するのは困難です。
著作権あり
AI研究所や企業に対する進行中の訴訟が優先される場合、不正なAIの開発者がAIシステムの誤動作について責任を問われる可能性があると想定しても安全です.
AI 技術が悪用された場合に責任を問われるかどうかをまだ考えている組織にとって、EU の人工知能法は、
AI システムがどのように動作するかを保証する責任は、運用で AI システムを使用する開発者と企業にあります。
データ保護を確実にするのと同じように、企業や研究所は、AI データとコードの不正操作を軽減するために適切な制御が実装されていることを確認する必要があります。
不正な AI を防止するには、技術的および非技術的な対策を組み合わせる必要があります。これらには、堅牢なテスト、透明性、倫理的な設計、およびガバナンスが含まれます。
AI システムへの不正アクセスを防止するには、アクセス制御、脆弱性管理、定期的な更新、データ保護、効果的なデータ管理などの適切なサイバーセキュリティ対策が不可欠です。
人間による監視と、AI 開発者、研究者、監査人、法律実務家、政策立案者などのさまざまな利害関係者との協力は、AI モデルが確実かつ責任を持って開発されることを保証するのに役立ちます。
わずか 3 か月で、ChatGPT は私たちの世界を変えました。ジェネレーティブ会話型ボットやその他の AI システムには、ビジネスを混乱させ、顧客体験を向上させ、社会を変革し、革新的な機会を生み出す大きな可能性があります。
ただし、安全かつ責任を持って開発および展開されていない場合、AI システムは不正になる可能性があります。不正な AI は、ユーザーや社会に深刻なリスクをもたらす可能性があります。 AI システムを使用する AI 開発者および企業は、AI システムが危害または損害を引き起こした場合、責任を負う可能性があります。
AI システムが意図したとおりに動作することを保証するには、AI 開発者、ユーザー、政策立案者の共同責任が伴います。
AI が安全で安全で、社会にとって有益な方法で開発および展開されていることを確認するために、適切な技術的、非技術的、および規制上の対策を講じる必要があります。