Khám phá tác động của Shadow AI đối với hoạt động kinh doanh: rủi ro, chiến lược và tìm kiếm một tương lai đổi mới, an toàn. Các công ty sẽ điều hướng biên giới mới này như thế nào?
Vào tháng 12 năm 2023, Amazon đã công bố liên doanh AI mới nhất của mình, Q, hứa hẹn một giải pháp thay thế an toàn hơn cho các chatbot tập trung vào người tiêu dùng như ChatGPT. Tuy nhiên, sự phấn khích chỉ tồn tại trong thời gian ngắn. Chỉ ba ngày sau khi công bố, Amazon Q đã vướng vào tranh cãi. Các nhân viên đã cảnh giác về các biện pháp bảo mật và quyền riêng tư không đầy đủ, tiết lộ rằng Q không đáp ứng được các tiêu chuẩn nghiêm ngặt của công ty Amazon. Các nhà phê bình nhấn mạnh xu hướng "ảo giác" và rò rỉ thông tin nhạy cảm, bao gồm vị trí trung tâm dữ liệu AWS, các tính năng sản phẩm chưa được phát hành và các chương trình giảm giá nội bộ. Các kỹ sư của Amazon buộc phải chuyển sang chế độ kiểm soát thiệt hại, giải quyết các vấn đề quan trọng được gắn thẻ là trường hợp khẩn cấp "thứ bảy" để ngăn chặn hậu quả trong tương lai.
Cùng lúc đó, Samsung Electronics Co. phải vật lộn với cơn đau đầu do AI gây ra. Mã nguồn nội bộ nhạy cảm đã được tìm thấy trên ChatGPT, làm nổi bật các lỗ hổng bảo mật rõ ràng. Phản hồi diễn ra nhanh chóng: lệnh cấm toàn công ty đối với các công cụ AI tổng hợp đã được truyền đạt thông qua một bản ghi nhớ nội bộ. Quyết định của Samsung nhấn mạnh những khó khăn trong việc quản lý dữ liệu trên các nền tảng AI bên ngoài, chẳng hạn như Google Gemini và Microsoft Copilot, nơi việc kiểm soát việc truy xuất và xóa dữ liệu là khó nắm bắt. Động thái này phản ánh mối lo ngại của 65% nhân viên Samsung , những người coi các dịch vụ AI này như một con ngựa thành Troy kỹ thuật số. Bất chấp tác động của lệnh cấm đối với năng suất, Samsung vẫn kiên quyết lựa chọn phát triển các giải pháp AI nội bộ để dịch thuật, tóm tắt tài liệu và phát triển phần mềm cho đến khi có thể thiết lập được môi trường sử dụng AI an toàn.
Apple cũng tham gia vào cuộc cạnh tranh, cấm nhân viên của mình sử dụng ChatGPT và các công cụ hỗ trợ AI tương tự. Lệnh cấm một phần được thúc đẩy bởi sự liên kết của các công cụ này với Microsoft, một đối thủ cạnh tranh trực tiếp, làm dấy lên lo ngại về bảo mật dữ liệu nhạy cảm của Apple. Xu hướng này không chỉ dành riêng cho những gã khổng lồ công nghệ; những gã khổng lồ tài chính như JPMorgan Chase , Deutsche Bank, Wells Fargo và những công ty khác cũng hạn chế sử dụng chatbot AI, nhằm mục đích bảo vệ thông tin tài chính nhạy cảm khỏi con mắt của bên thứ ba.
Tuy nhiên, những hạn chế này đã vô tình tạo ra văn hóa "Shadow AI", nơi nhân viên sử dụng thiết bị cá nhân của họ tại nơi làm việc nhằm đạt được hiệu quả và tiết kiệm thời gian, làm nổi bật khoảng cách đáng kể về chính sách-thực tiễn trong việc sử dụng AI.
Mặc dù dữ liệu cụ thể còn khan hiếm nhưng nhiều cá nhân tại các công ty bị hạn chế về AI đã thú nhận đã áp dụng các cách giải quyết như vậy - đó chỉ là những cách công khai về nó! Việc sử dụng Shadow AI này phổ biến ở nhiều tổ chức, khuyến khích việc sử dụng AI theo những cách mâu thuẫn hoặc vi phạm chính sách của công ty, do đó trở thành một hoạt động mà nhân viên cảm thấy buộc phải che giấu.
Khi tìm hiểu sâu hơn về vấn đề này, tôi nhận thấy một số nghiên cứu gần đây xác nhận rằng mặc dù có rất nhiều câu chuyện về việc các công ty hạn chế sử dụng genAI tại nơi làm việc, nhưng nhân viên dường như không hề ít sử dụng nó . Nghiên cứu gần đây của Dell chỉ ra rằng 91% số người được hỏi đã sử dụng AI sáng tạo trong cuộc sống của họ ở một mức độ nào đó, với 71% khác cho biết họ đã sử dụng nó cụ thể tại nơi làm việc.
Nghiên cứu do ISACA thực hiện nêu bật khoảng cách đáng kể giữa việc áp dụng AI tại nơi làm việc và các chính sách chính thức quản lý việc sử dụng nó ở Úc và New Zealand. Trong khi 63% nhân viên ở các khu vực này sử dụng AI cho nhiều nhiệm vụ khác nhau thì chỉ có 36% tổ chức chính thức cho phép điều đó. Cuộc khảo sát cho thấy AI đang được áp dụng để tạo nội dung bằng văn bản (51%), nâng cao năng suất (37%), tự động hóa các nhiệm vụ lặp đi lặp lại (37%), cải thiện việc ra quyết định (29%) và dịch vụ khách hàng (20%). Tuy nhiên, chỉ có 11% tổ chức có chính sách toàn diện về việc sử dụng AI và 21% không có ý định thiết lập bất kỳ chính sách nào.
Hơn nữa, nghiên cứu của ISACA chỉ ra rằng các tổ chức đang thiếu đào tạo liên quan đến AI, chỉ có 4% cung cấp đào tạo cho tất cả nhân viên và 57% không cung cấp bất kỳ khóa đào tạo nào, ngay cả đối với những người bị ảnh hưởng trực tiếp bởi công nghệ AI. Tình huống này làm tăng mối lo ngại tương tự như tình huống liên quan đến Shadow IT, nơi nhân viên sử dụng tài nguyên CNTT mà không có sự chấp thuận chính thức, có khả năng gây rủi ro cho quản trị và an ninh tổ chức.
Giống như cách Shadow IT tấn công các doanh nghiệp, Shadow AI đã có mặt, buộc các tổ chức phải đối đầu trực diện với lập trường GenAI của họ trong khi vẫn tìm ra cách sử dụng nó.
Các chuyên gia tin rằng các rào chắn sẽ không ngăn cản nhân viên sử dụng các công cụ AI vì chúng nâng cao đáng kể năng suất và tiết kiệm thời gian. Do đó, CIO của công ty phải đối mặt với vấn đề này và khám phá các chiến lược giảm thiểu phù hợp với khả năng chịu đựng rủi ro của tổ chức. Chắc chắn, những nhân viên có ý định tốt sẽ sử dụng những công cụ này để tăng hiệu quả của họ, vì vậy các nhà lãnh đạo công nghệ của công ty có thể ngăn chặn mọi tác hại tiềm ẩn đối với tổ chức bằng cách chủ động giải quyết xu hướng này và quản lý nó một cách hiệu quả.
Mọi tương tác của nhân viên với các công cụ AI đều có thể là điểm dễ bị tổn thương.
Lịch sử của Shadow IT được đánh dấu bằng những vụ vi phạm dữ liệu nghiêm trọng, chẳng hạn như các sự cố khét tiếng liên quan đến bộ chứa Amazon S3 không bảo mật , dẫn đến việc dữ liệu cá nhân của 30.000 cá nhân bị lộ ra công chúng. Những tiền lệ lịch sử này đóng vai trò như một câu chuyện cảnh báo, nhấn mạnh sự cần thiết phải quản trị dữ liệu nghiêm ngặt trong thời đại AI.
Shadow AI là một thách thức khó khăn hơn Shadow IT vì nhiều lý do. Đầu tiên, bản chất phi tập trung của việc sử dụng công cụ AI có nghĩa là khả năng lạm dụng hoặc rò rỉ dữ liệu không chỉ giới hạn ở một nhóm nhỏ nhân viên kỹ thuật (ví dụ: nhà phát triển) mà còn mở rộng trên toàn bộ tổ chức. Ngoài ra, các mô hình AIaaS (AI dưới dạng dịch vụ) vốn đã học hỏi từ dữ liệu chúng xử lý, tạo ra một lớp rủi ro kép: khả năng truy cập dữ liệu nhạy cảm của các nhà cung cấp AI và khả năng nâng cao của các tác nhân xấu trong việc khám phá và khai thác dữ liệu bị lộ.
Theo Amir Sohrabi , Phó Chủ tịch khu vực EMEA và Châu Á, đồng thời là người đứng đầu bộ phận chuyển đổi kỹ thuật số tại SAS, các nhà lãnh đạo công nghệ có tư duy ưu tiên dữ liệu sẽ có thể nâng cao hiệu quả vào năm 2024 và hơn thế nữa. Điều này là do việc tối đa hóa lợi ích của các công cụ AI tổng quát phụ thuộc vào dữ liệu được tổ chức tốt, đòi hỏi các biện pháp quản lý dữ liệu mạnh mẽ bao gồm truy cập, vệ sinh và quản trị dữ liệu.
Trong bài viết của mình cho CIO.com, Nick Brackney, Trưởng nhóm Gen AI & Cloud Evangelist tại Dell Technologies, chỉ ra “ba cách quy định” mà các doanh nghiệp nên sử dụng để chống lại Shadow AI thành công.
Đầu tiên, thiết lập một chiến lược tập trung cho việc sử dụng AI tổng quát, có sự tham gia của lãnh đạo điều hành để xác định các trường hợp sử dụng, tạo quyền truy cập an toàn và bảo vệ dữ liệu. Cách tiếp cận này đơn giản hóa việc thực thi và mở rộng quy mô trong toàn tổ chức, đồng thời đòi hỏi nỗ lực xây dựng và xác định những chiến thắng dễ dàng để đảm bảo thành công.
Thứ hai, giữ cho dữ liệu của bạn được ngăn nắp và hiểu loại nào không nên được đặt trong các dịch vụ AI đám mây riêng tư hoặc công khai được lưu trữ, chẳng hạn như bí mật thương mại và thông tin nhạy cảm. Sử dụng các giải pháp AI cho phép kiểm soát hoàn toàn hoặc không lưu giữ nhật ký hội thoại đối với các loại dữ liệu này.
Thứ ba, kiểm soát dịch vụ AI bằng cách đưa nó vào dữ liệu của bạn, dù là tại chỗ hay thông qua các giải pháp đám mây an toàn, để tận dụng lợi thế về quản trị, năng suất của nhân viên và truy cập dữ liệu an toàn. Cách tiếp cận này nâng cao trải nghiệm của người dùng cuối, đảm bảo tuân thủ và giảm nguy cơ lộ dữ liệu.
Việc xây dựng Chính sách sử dụng AI được chấp nhận rõ ràng là rất quan trọng để xác định các hoạt động AI không phù hợp có khả năng gây hại cho tổ chức của bạn và hướng dẫn tích hợp các ứng dụng AI phù hợp với các giao thức bảo mật dữ liệu và chiến lược quản lý rủi ro. Chính sách này đóng vai trò là điểm chuẩn, cho phép những người ra quyết định đánh giá việc sử dụng các công cụ AI trong tổ chức theo các nguyên tắc đã được thiết lập, nhanh chóng xác định mọi mức độ rủi ro và xác định các hành động khắc phục cần thiết.
Ethan Mollick, giáo sư tại Trường Wharton thuộc Đại học Pennsylvania, đưa ra một cách tiếp cận kích thích tư duy khác. Ông tin rằng các phương pháp truyền thống để tích hợp công nghệ mới không hiệu quả đối với AI do tính chất tập trung và tốc độ chậm, khiến bộ phận CNTT khó phát triển các mô hình AI nội bộ cạnh tranh hoặc các chuyên gia tư vấn khó đưa ra hướng dẫn cụ thể. Tiềm năng thực sự của ứng dụng AI nằm ở những nhân viên là chuyên gia trong công việc của họ, cho thấy rằng để các tổ chức thực sự được hưởng lợi từ AI, họ phải thu hút lực lượng lao động của mình (còn gọi là "Secret Cyborgs") sử dụng công nghệ AI.
Đầu tiên và quan trọng nhất, các thương hiệu nên thừa nhận rằng nhân viên ở mọi cấp độ đều có thể sở hữu các kỹ năng AI có giá trị, bất kể vai trò chính thức hay hiệu suất trong quá khứ của họ. Sau khi phát hiện ra những người máy bí mật trong số những nhân viên hiểu biết về AI của mình, các công ty phải thúc đẩy một môi trường học tập tập thể chẳng hạn như các thư viện nhắc nhở có nguồn gốc từ cộng đồng và tạo ra một nền văn hóa làm giảm bớt sự lo ngại về AI bằng cách đưa ra những đảm bảo chống lại tình trạng mất việc làm do AI, thúc đẩy việc sử dụng AI giúp loại bỏ các nhiệm vụ nhàm chán và khuyến khích công việc hấp dẫn hơn.
Thiết lập sự an toàn về mặt tâm lý là rất quan trọng để khuyến khích việc sử dụng AI mở trong nhân viên.
Nhà tuyển dụng có thể đưa ra những phần thưởng đáng kể cho việc xác định những cơ hội quan trọng mà AI có thể hỗ trợ tổ chức. Điều này có thể bao gồm các ưu đãi tài chính, khuyến mãi hoặc điều kiện làm việc linh hoạt và được xử lý thông qua trò chơi điện tử.
Các tổ chức ngày nay nên hành động nhanh chóng để xác định mức độ tăng năng suất từ AI sẽ được sử dụng như thế nào, cách tổ chức lại quy trình làm việc dựa trên khả năng của AI và cách quản lý các rủi ro tiềm ẩn liên quan đến việc sử dụng AI, chẳng hạn như ảo giác dữ liệu và các mối lo ngại về IP. Điều này đòi hỏi một cách tiếp cận chủ động để xây dựng các chính sách AI toàn diện, thu hút nhân viên ở mọi cấp độ để tận dụng những hiểu biết sâu sắc của họ và thúc đẩy văn hóa khen thưởng sự đổi mới dựa trên AI.
Khi những người đam mê công nghệ và doanh nghiệp điều hướng sự phức tạp của việc tích hợp AI, bạn sẽ triển khai những chiến lược nào để tận dụng công nghệ biến đổi này trong tổ chức hoặc các dự án cá nhân của mình một cách có trách nhiệm và đổi mới, đảm bảo cách tiếp cận cân bằng về quyền riêng tư, bảo mật và hiệu quả?