ChatGPT 蜜月期结束了吗? 自去年发布以来,ChatGPT 席卷了全世界。然而,最近的一项调查发现 已在其工作场所实施或正在考虑禁止 和其他 应用程序。 75%的企业 ChatGPT 生成式 AI 为什么公司对 ChatGPT 临阵退缩? 这并不是说他们怀疑其能力。相反,他们担心潜在的网络安全风险。 日益关注的问题:数据泄露和 ChatGPT 生成式人工智能工具旨在从每次交互中学习。你向它们提供的数据越多,它们就会变得越聪明。听起来不错,对吧? 但关于数据的去向、谁查看数据以及如何使用数据,存在一个灰色地带。 这些隐私问题导致意大利数据保护机构 在四月份。 暂时禁止 ChatGPT https://twitter.com/GergelyOrosz/status/1643903467734409216?embedable=true 对于企业来说,担心的是 ChatGPT 可能会获取用户提交的信息,从中学习,并可能在未来与其他用户的交互中让它溜走。 OpenAI 的 ChatGPT 指南表明可以审查用户数据并使用它来完善系统。但这对于数据隐私意味着什么呢? 答案并不明确,这就是引起焦虑的原因。 数据泄露担忧:真正的风险是什么? 发现,截至 6 月 1 日,10.8% 的员工在工作中使用 ChatGPT,其中 8.6% 的员工输入公司信息。令人震惊的统计数据是,4.7% 的员工已将机密信息输入 ChatGPT。 Cyberhaven 的一项研究 由于 ChatGPT 的工作方式,传统的安全措施是缺乏的。大多数安全产品旨在保护文件不被共享或上传。但 ChatGPT 用户将内容复制并粘贴到他们的浏览器中。 现在,OpenAI 添加了退出选项。用户可以请求不要将他们的数据用于进一步的培训。 但选择退出并不是默认设置。因此,除非用户意识到并采取主动措施,否则他们的互动可能会被用来训练人工智能。 担忧还不止于此。 即使您选择退出,您的数据仍然会通过系统。虽然 OpenAI 向用户保证数据得到负责任的管理,但 ChatGPT 。目前尚不清楚数据被摄入后如何在系统内流动。 充当黑匣子 还存在出现问题的风险。 2023 年 3 月 21 日,OpenAI ,原因是聊天历史记录的标题错误,其中包含不同用户的姓名。如果这些标题包含私人或敏感详细信息,其他 ChatGPT 用户可能会看到它们。该漏洞还暴露了一些 ChatGPT Plus 订阅者的个人数据。 关闭了 ChatGPT 三星事件 第一次重大 ChatGPT 数据泄露发生在今年早些时候,涉及科技巨头 。据彭博社报道,敏感的内部源代码 工程师将其上传到 ChatGPT 后。 三星 不小心泄露了 https://twitter.com/SergioRocks/status/1653814248848470023?embedable=true 像这样的泄漏可能会产生严重的影响。 不仅仅是三星。科技行业的另一巨头 也有自己的担忧。公司 ChatGPT 的响应与亚马逊的内部数据惊人地相似。 亚马逊 已识别实例 如果 ChatGPT 拥有亚马逊的专有数据,那么是什么阻止它无意中将其泄露给竞争对手呢? 缺乏明确的规定 生成式人工智能工具的快速发展和采用让监管机构迎头赶上。关于负责任使用的指导方针有限。 那么,如果人工智能导致数据泄露,谁该负责——使用该工具的公司、员工还是人工智能提供商? 在 OpenAI 中 ,责任由用户承担: 使用条款 这给公司带来了风险。如果没有明确的规定,他们就只能决定最佳的行动方案。这就是为什么许多人现在变得更加犹豫。 技术领导者的相互矛盾的观点 在部署新技术时,企业通常会寻求技术领导者的帮助。如果一家科技巨头采用一项新的创新,通常会被视为为其他公司效仿开绿灯。 因此,当像 这样有影响力的公司提供有关某项技术的混合信号时,整个行业都会感受到涟漪。 微软 一方面,微软对生成式人工智能工具的使用表示保留。一月份,微软警告员工不要与 ChatGPT 共享“敏感数据”。 https://twitter.com/BusinessInsider/status/1620528535017345025?embedable=true 但微软也支持自己的技术版本 Azure ChatGPT。此次迭代承诺为企业用户提供更安全、更可控的环境。 此举引发了问题:Azure ChatGPT 是否真的能够免受微软在更广泛的生成式 AI 领域指出的风险的影响?或者这是确保企业留在微软生态系统内的战略举措? 采用 ChatGPT 的平衡 在评估任何新技术时,企业常常陷入潜在好处和潜在陷阱之间的拉锯战。 对于 ChatGPT,公司似乎采取了观望态度。 随着技术及其法规的发展,人们希望能够建立更安全、更透明的使用方式。 目前,ChatGPT 非常适合提供一些编码帮助和内容。但我不会信任它的专有数据。