ChatGPT のハネムーン期間は終わったのでしょうか? ChatGPT は、昨年のリリース以来、世界を席巻しました。しかし、最近の調査によると、 職場で およびその他の アプリケーションを実装しているか、禁止を検討しています。 75%の企業が ChatGPT 生成 AI なぜ企業はChatGPTに対して冷淡なのでしょうか? 彼らはその能力を疑っているわけではない。むしろ、潜在的なサイバーセキュリティリスクを懸念しています。 高まる懸念: データ漏洩とChatGPT 生成 AI ツールは、あらゆる対話から学習するように設計されています。より多くのデータを与えれば与えるほど、彼らはより賢くなります。素晴らしいですね。 しかし、データがどこに行くのか、誰が見るのか、どのように使用されるのかについては、曖昧な部分があります。 こうしたプライバシー上の懸念により、イタリアのデータ保護当局が 4月中。 ChatGPTを一時的に禁止します https://twitter.com/GergelyOrosz/status/1643903467734409216?embedable=true 企業にとっての懸念は、ChatGPT がユーザーが送信した情報を取得してそこから学習し、将来の他のユーザーとのやりとりに情報を漏らしてしまうことになるのではないかということです。 ChatGPT に関する OpenAI のガイドラインでは、ユーザー データがレビューされ、システムを改良するために使用される可能性があることが示されています。しかし、これはデータプライバシーにとって何を意味するのでしょうか? 答えは明確ではなく、それが不安の原因となっています。 データ漏洩の懸念: 本当のリスクは何ですか? によると、6 月 1 日までに、従業員の 10.8% が職場で ChatGPT を利用し、8.6% が会社情報を入力していました。憂慮すべき統計は、従業員の 4.7% が ChatGPT に機密情報を入力したことがあるということです。 Cyberhaven の調査 また、ChatGPT の仕組みのせいで、従来のセキュリティ対策が不足しています。ほとんどのセキュリティ製品は、ファイルが共有またはアップロードされないように保護するように設計されています。ただし、ChatGPT ユーザーはコンテンツをコピーしてブラウザに貼り付けます。 今回、OpenAI にオプトアウト オプションが追加されました。ユーザーは、自分のデータがさらなるトレーニングに使用されないようリクエストできます。 ただし、オプトアウトはデフォルト設定ではありません。したがって、ユーザーが認識して積極的な対策を講じない限り、ユーザーのインタラクションが AI のトレーニングに使用される可能性があります。 懸念はそれだけではありません。 オプトアウトした場合でも、データは引き続きシステムを通過します。 OpenAI はデータが責任を持って管理されることをユーザーに保証しますが、ChatGPT は 。データが取り込まれた後にシステム内でどのように流れるかは明らかではありません。 ブラックボックスとして機能する 何か問題が起こるリスクもあります。 2023 年 3 月 21 日、OpenAI は、チャット履歴に別のユーザーの名前が誤って付けられるという不具合のため 。これらのタイトルにプライベートまたは機密情報が含まれていた場合、他の ChatGPT ユーザーがそれらを目にした可能性があります。このバグにより、一部の ChatGPT Plus 加入者の個人データも暴露されました。 、ChatGPT をシャットダウンしました サムスン事件 最初の大規模な ChatGPT データ漏洩は今年初めに発生し、テクノロジー大手の が関与していました。ブルームバーグによると、機密性の高い内部ソースコードは、 エンジニアがそれを ChatGPT にアップロードした後。 Samsung 誤って漏れた https://twitter.com/SergioRocks/status/1653814248848470023?embedable=true このような漏洩は重大な影響を及ぼす可能性があります。 そしてそれはサムスンだけではありませんでした。テクノロジー業界のもう一つの巨人である も、独自の懸念を抱えていました。会社 ChatGPT の応答は不気味なほど Amazon の内部データに似ていました。 Amazon 特定されたインスタンス ChatGPT に Amazon の独自データが含まれている場合、それが競合他社に誤って流出するのを防ぐものは何でしょうか? 明確な規制の欠如 Generative AI ツールの急速な進化と導入により、規制当局は追いつきを続けています。責任ある使用に関するガイドラインは限られています。 では、AI が原因でデータ侵害が発生した場合、ツールを使用している企業、従業員、または AI プロバイダーの誰が責任を負うのでしょうか? OpenAIでは 、責任はユーザーにあります。 利用規約 それは企業にリスクをもたらします。明確な規制がなければ、最善の行動方針を決定するのは彼らに任されています。だからこそ、多くの人が今、さらに躊躇し始めているのです。 テクノロジーリーダーの相反する見解 新しいテクノロジーの導入に関して、企業は多くの場合、テクノロジーリーダーに注目します。テクノロジー大手が新たなイノベーションを導入すると、他の企業も追随することが許可されるとみなされることがよくあります。 そのため、 ような影響力のある企業がテクノロジーに関してさまざまなシグナルを発すると、その波紋は業界全体に波及します。 マイクロソフトの 一方で、MicrosoftはGenerative AIツールの使用に難色を示している。 Microsoftは1月、ChatGPTと「機密データ」を共有しないよう従業員に警告した。 https://twitter.com/BusinessInsider/status/1620528535017345025?embedable=true しかし、Microsoft は、独自のバージョンのテクノロジである Azure ChatGPT も支持しています。この反復により、企業ユーザーにとってより安全でより制御された環境が約束されます。 この動きは疑問を引き起こします。Azure ChatGPT は、より広範な生成 AI 環境において Microsoft が指摘したリスクに対して本当に影響を受けないのでしょうか?それとも、これは企業が Microsoft のエコシステム内に留まるようにするための戦略的な作戦なのでしょうか? ChatGPT 採用のバランス 新しいテクノロジーを評価するとき、企業は潜在的な利点と潜在的な落とし穴の間で綱引きに巻き込まれることがよくあります。 ChatGPT では、企業は様子見のアプローチを採用しているようです。 テクノロジーとその規制が進化するにつれ、より安全で透明性の高い使用法が確立されることが期待されています。 今のところ、ChatGPT はちょっとしたコーディングのヘルプやコンテンツに最適です。しかし、私はそれを独自のデータに関しては信用しません。