paint-brush
AI が不正になるとき - Microsoft の Bing Chat の奇妙なケース@funsor
2,206 測定値
2,206 測定値

AI が不正になるとき - Microsoft の Bing Chat の奇妙なケース

Funso Richard6m2023/03/02
Read on Terminal Reader

長すぎる; 読むには

わずか 3 か月で、ChatGPT は私たちの世界を変えました。ジェネレーティブ会話型ボットやその他の AI システムには、ビジネスを混乱させ、顧客体験を向上させ、社会を変革し、革新的な機会を生み出す大きな可能性があります。 ただし、安全かつ責任を持って開発および展開されていない場合、AI システムは不正になる可能性があります。不正な AI は、ユーザーと社会に深刻なリスクをもたらす可能性があります。 AI システムを使用する AI 開発者および企業は、AI システムが危害または損害を引き起こした場合、責任を負う可能性があります。 AI システムが意図したとおりに動作することを保証するには、AI 開発者、ユーザー、および政策立案者の共同責任が伴います。 AI が安全、確実、かつ社会にとって有益な方法で開発および展開されていることを確認するために、適切な技術的、非技術的、および規制上の措置を講じる必要があります。
featured image - AI が不正になるとき - Microsoft の Bing Chat の奇妙なケース
Funso Richard HackerNoon profile picture
Funso Richard

Funso Richard

@funsor

Information Security Officer and GRC Thought Leader. Writes on business risk, cybersecurity strategy, and governance.

L O A D I N G
. . . comments & more!

About Author

Funso Richard HackerNoon profile picture
Funso Richard@funsor
Information Security Officer and GRC Thought Leader. Writes on business risk, cybersecurity strategy, and governance.

ラベル

Languages

この記事は...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite