paint-brush
75% công ty đang cấm sử dụng ChatGPT: Chuyện gì đã xảy ra?từ tác giả@georgedrennan
2,232 lượt đọc
2,232 lượt đọc

75% công ty đang cấm sử dụng ChatGPT: Chuyện gì đã xảy ra?

từ tác giả George Drennan4m2023/09/25
Read on Terminal Reader

dài quá đọc không nổi

ChatGPT đã gây bão trên toàn thế giới kể từ khi phát hành vào năm ngoái. Nhưng một cuộc khảo sát gần đây cho thấy 75% doanh nghiệp đã triển khai hoặc đang xem xét các lệnh cấm ChatGPT và các ứng dụng Generative AI khác tại nơi làm việc của họ. Các công ty đang lo lắng về những rủi ro an ninh mạng tiềm ẩn. Vụ rò rỉ dữ liệu ChatG PT lớn đầu tiên xảy ra vào đầu năm nay và liên quan đến gã khổng lồ công nghệ Samsung.
featured image - 75% công ty đang cấm sử dụng ChatGPT: Chuyện gì đã xảy ra?
George Drennan HackerNoon profile picture
0-item

Tuần trăng mật ChatGPT đã kết thúc chưa?


ChatGPT đã gây bão trên toàn thế giới kể từ khi phát hành vào năm ngoái. Tuy nhiên, một cuộc khảo sát gần đây cho thấy 75% doanh nghiệp đã triển khai hoặc đang xem xét các lệnh cấm ChatGPT và các ứng dụng Generative AI khác tại nơi làm việc của họ.


Tại sao các công ty lại thờ ơ với ChatGPT?


Không phải là họ nghi ngờ khả năng của nó. Thay vào đó, họ lo lắng về những rủi ro an ninh mạng tiềm ẩn.


Mối lo ngại ngày càng tăng: Rò rỉ dữ liệu và ChatGPT

Các công cụ AI sáng tạo được thiết kế để học hỏi từ mọi tương tác. Bạn càng cung cấp nhiều dữ liệu cho chúng, chúng càng trở nên thông minh hơn. Nghe có vẻ tuyệt vời phải không?


Nhưng có một vùng màu xám liên quan đến việc dữ liệu sẽ đi đâu, ai nhìn thấy nó và nó được sử dụng như thế nào.


Những lo ngại về quyền riêng tư này đã khiến cơ quan bảo vệ dữ liệu của Ý phải tạm thời cấm ChatGPT vào tháng Tư.


Đối với các doanh nghiệp, điều đáng lo ngại là ChatGPT có thể lấy thông tin do người dùng gửi, học hỏi từ thông tin đó và có khả năng để lọt thông tin đó trong các tương tác trong tương lai với những người dùng khác.


Nguyên tắc của OpenAI dành cho ChatGPT chỉ ra rằng dữ liệu người dùng có thể được xem xét và sử dụng để tinh chỉnh hệ thống. Nhưng điều này có ý nghĩa gì đối với quyền riêng tư dữ liệu?


Câu trả lời không rõ ràng và đó là nguyên nhân gây ra lo lắng.


Lo lắng rò rỉ dữ liệu: Rủi ro thực sự là gì?

Một nghiên cứu của Cyberhaven cho thấy đến ngày 1 tháng 6, 10,8% nhân viên sử dụng ChatGPT tại nơi làm việc, trong đó 8,6% nhập thông tin công ty. Thống kê đáng báo động là có 4,7% người lao động đã nhập thông tin mật vào ChatGPT.


Kết quả nghiên cứu của Cyberhaven


Và do cách thức hoạt động của ChatGPT nên thiếu các biện pháp bảo mật truyền thống. Hầu hết các sản phẩm bảo mật đều được thiết kế để bảo vệ các tập tin khỏi bị chia sẻ hoặc tải lên. Nhưng người dùng ChatGPT lại sao chép và dán nội dung vào trình duyệt của họ.


Giờ đây, OpenAI đã thêm tùy chọn từ chối. Người dùng có thể yêu cầu không sử dụng dữ liệu của họ để đào tạo thêm.


Nhưng việc chọn không tham gia không phải là cài đặt mặc định. Vì vậy, trừ khi người dùng nhận thức được và thực hiện các biện pháp chủ động, các tương tác của họ có thể được sử dụng để đào tạo AI.


Những lo ngại không dừng lại ở đó.


Ngay cả khi bạn chọn không tham gia, dữ liệu của bạn vẫn được chuyển qua hệ thống. Và trong khi OpenAI đảm bảo với người dùng rằng dữ liệu được quản lý có trách nhiệm thì ChatGPT hoạt động như một hộp đen . Không rõ dữ liệu sẽ chảy như thế nào trong hệ thống sau khi được đưa vào.


Cũng có nguy cơ xảy ra sự cố.


Vào ngày 21 tháng 3 năm 2023, OpenAI đã đóng cửa ChatGPT do trục trặc khiến lịch sử trò chuyện có tiêu đề không chính xác với tên của những người dùng khác nhau. Nếu những tiêu đề này chứa thông tin riêng tư hoặc nhạy cảm thì những người dùng ChatGPT khác có thể đã nhìn thấy chúng. Lỗi này cũng làm lộ dữ liệu cá nhân của một số người đăng ký ChatGPT Plus.

Sự cố Samsung

Vụ rò rỉ dữ liệu ChatGPT lớn đầu tiên xảy ra vào đầu năm nay và liên quan đến gã khổng lồ công nghệ Samsung . Theo Bloomberg, mã nguồn nội bộ nhạy cảm đã bị vô tình bị rò rỉ sau khi một kỹ sư tải nó lên ChatGPT.


Một sự rò rỉ như thế này có thể có những hậu quả nghiêm trọng.


Và không chỉ có Samsung. Amazon , một gã khổng lồ khác trong ngành công nghệ, cũng có những lo ngại riêng. Công ty trường hợp được xác định trong đó phản hồi của ChatGPT giống một cách kỳ lạ với dữ liệu nội bộ của Amazon.


Nếu ChatGPT có dữ liệu độc quyền của Amazon, điều gì ngăn nó vô tình tiết lộ dữ liệu đó cho đối thủ cạnh tranh?


Thiếu quy định rõ ràng

Sự phát triển nhanh chóng và việc áp dụng các công cụ Generative AI đã khiến các cơ quan quản lý phải bắt kịp. Có những hướng dẫn hạn chế xung quanh việc sử dụng có trách nhiệm.


Vì vậy, nếu xảy ra vi phạm dữ liệu do AI, ai chịu trách nhiệm - công ty sử dụng công cụ này, nhân viên hay nhà cung cấp AI?


Trong OpenAI Điều khoản sử dụng , trách nhiệm thuộc về người dùng:

Điều khoản sử dụng OpenAI


Điều đó gây rủi ro cho các công ty. Nếu không có quy định rõ ràng, họ phải tự quyết định hướng hành động tốt nhất. Đó là lý do tại sao nhiều người hiện đang trở nên do dự hơn.


Quan điểm mâu thuẫn từ các nhà lãnh đạo công nghệ

Khi nói đến việc triển khai các công nghệ mới, các doanh nghiệp thường tìm đến những người dẫn đầu về công nghệ. Nếu một gã khổng lồ công nghệ áp dụng một cải tiến mới, điều đó thường được coi là đèn xanh cho các công ty khác làm theo.


Vì vậy, khi một công ty có tầm ảnh hưởng lớn như Microsoft đưa ra những tín hiệu trái chiều về một công nghệ, những làn sóng sẽ được cảm nhận trong khắp các ngành.


Một mặt, Microsoft bày tỏ sự dè dặt về việc sử dụng các công cụ Generative AI. Vào tháng 1, Microsoft đã cảnh báo nhân viên không chia sẻ “dữ liệu nhạy cảm” với ChatGPT.



Nhưng Microsoft cũng ủng hộ phiên bản công nghệ của riêng mình, Azure ChatGPT. Lần lặp lại này hứa hẹn một môi trường an toàn hơn và được kiểm soát nhiều hơn cho người dùng doanh nghiệp.


Động thái này đặt ra câu hỏi: Liệu Azure ChatGPT có thực sự miễn nhiễm với những rủi ro mà Microsoft đã chỉ ra trong bối cảnh Generative AI rộng hơn không? Hay đây là một động thái chiến lược để đảm bảo các doanh nghiệp vẫn ở trong hệ sinh thái của Microsoft?


Sự cân bằng của việc áp dụng ChatGPT

Khi đánh giá bất kỳ công nghệ mới nào, các doanh nghiệp thường bị cuốn vào cuộc giằng co giữa lợi ích tiềm năng và những cạm bẫy tiềm ẩn.


Với ChatGPT, các công ty dường như đang áp dụng cách tiếp cận chờ xem.


Khi công nghệ và các quy định của nó phát triển, người ta hy vọng rằng việc sử dụng an toàn hơn, minh bạch hơn có thể được thiết lập.


Hiện tại, ChatGPT rất phù hợp để cung cấp nội dung và trợ giúp về mã hóa. Nhưng tôi sẽ không tin tưởng nó với dữ liệu độc quyền.