paint-brush
75% の企業が ChatGPT の使用を禁止しています:何が起こったのでしょうか?@georgedrennan
2,232 測定値
2,232 測定値

75% の企業が ChatGPT の使用を禁止しています:何が起こったのでしょうか?

George Drennan4m2023/09/25
Read on Terminal Reader

長すぎる; 読むには

ChatGPT は、昨年のリリース以来、世界を席巻しました。しかし、最近の調査では、75% の企業が職場で ChatGPT やその他の生成 AI アプリケーションの禁止を導入しているか、禁止を検討していることがわかりました。企業は潜在的なサイバーセキュリティリスクを懸念しています。 ChatG PT に関する最初の大規模なデータ漏洩は今年初めに発生し、テクノロジー大手のサムスンが関与していました。
featured image - 75% の企業が ChatGPT の使用を禁止しています:何が起こったのでしょうか?
George Drennan HackerNoon profile picture
0-item

ChatGPT のハネムーン期間は終わったのでしょうか?


ChatGPT は、昨年のリリース以来、世界を席巻しました。しかし、最近の調査によると、 75%の企業が職場でChatGPTおよびその他の生成 AIアプリケーションを実装しているか、禁止を検討しています。


なぜ企業はChatGPTに対して冷淡なのでしょうか?


彼らはその能力を疑っているわけではない。むしろ、潜在的なサイバーセキュリティリスクを懸念しています。


高まる懸念: データ漏洩とChatGPT

生成 AI ツールは、あらゆる対話から学習するように設計されています。より多くのデータを与えれば与えるほど、彼らはより賢くなります。素晴らしいですね。


しかし、データがどこに行くのか、誰が見るのか、どのように使用されるのかについては、曖昧な部分があります。


こうしたプライバシー上の懸念により、イタリアのデータ保護当局がChatGPTを一時的に禁止します4月中。


企業にとっての懸念は、ChatGPT がユーザーが送信した情報を取得してそこから学習し、将来の他のユーザーとのやりとりに情報を漏らしてしまうことになるのではないかということです。


ChatGPT に関する OpenAI のガイドラインでは、ユーザー データがレビューされ、システムを改良するために使用される可能性があることが示されています。しかし、これはデータプライバシーにとって何を意味するのでしょうか?


答えは明確ではなく、それが不安の原因となっています。


データ漏洩の懸念: 本当のリスクは何ですか?

Cyberhaven の調査によると、6 月 1 日までに、従業員の 10.8% が職場で ChatGPT を利用し、8.6% が会社情報を入力していました。憂慮すべき統計は、従業員の 4.7% が ChatGPT に機密情報を入力したことがあるということです。


サイバーヘブンの研究結果


また、ChatGPT の仕組みのせいで、従来のセキュリティ対策が不足しています。ほとんどのセキュリティ製品は、ファイルが共有またはアップロードされないように保護するように設計されています。ただし、ChatGPT ユーザーはコンテンツをコピーしてブラウザに貼り付けます。


今回、OpenAI にオプトアウト オプションが追加されました。ユーザーは、自分のデータがさらなるトレーニングに使用されないようリクエストできます。


ただし、オプトアウトはデフォルト設定ではありません。したがって、ユーザーが認識して積極的な対策を講じない限り、ユーザーのインタラクションが AI のトレーニングに使用される可能性があります。


懸念はそれだけではありません。


オプトアウトした場合でも、データは引き続きシステムを通過します。 OpenAI はデータが責任を持って管理されることをユーザーに保証しますが、ChatGPT はブラックボックスとして機能する。データが取り込まれた後にシステム内でどのように流れるかは明らかではありません。


何か問題が起こるリスクもあります。


2023 年 3 月 21 日、OpenAI は、チャット履歴に別のユーザーの名前が誤って付けられるという不具合のため、ChatGPT をシャットダウンしました。これらのタイトルにプライベートまたは機密情報が含まれていた場合、他の ChatGPT ユーザーがそれらを目にした可能性があります。このバグにより、一部の ChatGPT Plus 加入者の個人データも暴露されました。

サムスン事件

最初の大規模な ChatGPT データ漏洩は今年初めに発生し、テクノロジー大手のSamsungが関与していました。ブルームバーグによると、機密性の高い内部ソースコードは、 誤って漏れたエンジニアがそれを ChatGPT にアップロードした後。


このような漏洩は重大な影響を及ぼす可能性があります。


そしてそれはサムスンだけではありませんでした。テクノロジー業界のもう一つの巨人であるAmazonも、独自の懸念を抱えていました。会社特定されたインスタンスChatGPT の応答は不気味なほど Amazon の内部データに似ていました。


ChatGPT に Amazon の独自データが含まれている場合、それが競合他社に誤って流出するのを防ぐものは何でしょうか?


明確な規制の欠如

Generative AI ツールの急速な進化と導入により、規制当局は追いつきを続けています。責任ある使用に関するガイドラインは限られています。


では、AI が原因でデータ侵害が発生した場合、ツールを使用している企業、従業員、または AI プロバイダーの誰が責任を負うのでしょうか?


OpenAIでは利用規約、責任はユーザーにあります。

OpenAI利用規約


それは企業にリスクをもたらします。明確な規制がなければ、最善の行動方針を決定するのは彼らに任されています。だからこそ、多くの人が今、さらに躊躇し始めているのです。


テクノロジーリーダーの相反する見解

新しいテクノロジーの導入に関して、企業は多くの場合、テクノロジーリーダーに注目します。テクノロジー大手が新たなイノベーションを導入すると、他の企業も追随することが許可されるとみなされることがよくあります。


そのため、マイクロソフトのような影響力のある企業がテクノロジーに関してさまざまなシグナルを発すると、その波紋は業界全体に波及します。


一方で、MicrosoftはGenerative AIツールの使用に難色を示している。 Microsoftは1月、ChatGPTと「機密データ」を共有しないよう従業員に警告した。



しかし、Microsoft は、独自のバージョンのテクノロジである Azure ChatGPT も支持しています。この反復により、企業ユーザーにとってより安全でより制御された環境が約束されます。


この動きは疑問を引き起こします。Azure ChatGPT は、より広範な生成 AI 環境において Microsoft が指摘したリスクに対して本当に影響を受けないのでしょうか?それとも、これは企業が Microsoft のエコシステム内に留まるようにするための戦略的な作戦なのでしょうか?


ChatGPT 採用のバランス

新しいテクノロジーを評価するとき、企業は潜在的な利点と潜在的な落とし穴の間で綱引きに巻き込まれることがよくあります。


ChatGPT では、企業は様子見のアプローチを採用しているようです。


テクノロジーとその規制が進化するにつれ、より安全で透明性の高い使用法が確立されることが期待されています。


今のところ、ChatGPT はちょっとしたコーディングのヘルプやコンテンツに最適です。しかし、私はそれを独自のデータに関しては信用しません。