Việc áp dụng rộng rãi AI đòi hỏi phải có các biện pháp bảo vệ có phương pháp để quản lý, quản lý và bảo đảm việc sử dụng nó.
Trong thời gian gần đây, thế giới đã chứng kiến sự gia tăng đáng kể trong việc sử dụng trí tuệ nhân tạo , thâm nhập vào mọi khía cạnh của bối cảnh kỹ thuật số. Từ xử lý tự động đến các thuật toán tiên tiến, trí tuệ nhân tạo đang dần trở thành một phần không thể thiếu trong cuộc sống hàng ngày và hoạt động kinh doanh của chúng ta. Việc sử dụng công nghệ trí tuệ nhân tạo trong các ngành và lĩnh vực khác nhau đang gia tăng ở quy mô chưa từng có và theo cấp số nhân. Điều này còn gây ra những tác động sâu sắc đến xã hội cũng như những mối nguy hiểm, rủi ro đối với các quyền cốt lõi của cá nhân.
Trí tuệ nhân tạo (AI) là một lĩnh vực rộng bao gồm nhiều kỹ thuật và phương pháp tiếp cận dựa trên kiến thức, logic và học máy khác nhau để tạo ra các hệ thống có thể thực hiện các nhiệm vụ thường do con người thực hiện hoặc yêu cầu khả năng nhận thức của con người. Điều này bao gồm các nhiệm vụ như xử lý ngôn ngữ tự nhiên, nhận dạng hình ảnh, giải quyết vấn đề và ra quyết định. Theo Đạo luật AI của Liên minh Châu Âu và Báo cáo của OECD về Quản lý rủi ro AI, hệ thống AI là một hệ thống dựa trên máy, dành cho các mục tiêu rõ ràng hoặc tiềm ẩn, suy ra từ đầu vào mà nó nhận được cách tạo ra các đầu ra như dự đoán, nội dung, đề xuất, hoặc các quyết định có thể ảnh hưởng đến môi trường vật lý hoặc ảo.
Có hai cách phân loại rộng:
GAN là các khung học máy bao gồm hai mạng thần kinh, một bộ tạo và một bộ phân biệt đối xử. Trình tạo tạo ra dữ liệu bằng cách định hình nhiễu ngẫu nhiên được cung cấp cho nó thành định dạng đích. Chỉ riêng máy phát điện không thể đánh giá được chất lượng đầu ra của chúng. Đây là lúc mô hình phân biệt đối xử xuất hiện. Bộ phân biệt nhằm mục đích phân biệt giữa dữ liệu thực và dữ liệu giả do trình tạo tạo ra. Cả hai đều được đào tạo đồng thời, với bộ phân biệt được đào tạo để phân biệt dữ liệu thực và dữ liệu tạo, còn bộ tạo được đào tạo để gây nhầm lẫn cho bộ phân biệt bằng cách tạo ra dữ liệu ngày càng thực tế hơn. Khi quá trình đào tạo tiến triển, mỗi mô hình ngày càng hoàn thành tốt hơn nhiệm vụ của mình, dẫn đến trình tạo có thể tạo ra nội dung trông giống như thật. Thách thức với GAN là đào tạo chúng. Ví dụ: GAN có thể trải qua quá trình thu gọn mô hình trong quá trình đào tạo, trong đó trình tạo chỉ học cách tạo ra một lượng nhỏ mẫu đủ để gây nhầm lẫn cho người phân biệt đối xử nhưng không đủ để trở nên hữu ích. Đây là lúc mô hình khuếch tán phát huy tác dụng. Về bản chất, các mô hình khuếch tán được huấn luyện để khôi phục dữ liệu huấn luyện từ các phiên bản trường nhiễu của nó. Sau khi huấn luyện, sự khuếch tán có thể tạo ra những hình ảnh hoàn toàn mới từ đầu vào nhiễu thuần túy. Nó lặp đi lặp lại việc xây dựng một hình ảnh thông qua quá trình khử nhiễu dần dần.
Tiếp theo, các mô hình Tự hồi quy bắt nguồn từ số liệu thống kê. Nó tạo ra các chuỗi dữ liệu bằng cách mô hình hóa xác suất của phần tử tiếp theo trong chuỗi dựa trên các phần tử trước đó. Sau đó, phần tử tiếp theo được chọn ngẫu nhiên từ phân phối này, việc sử dụng tham số “nhiệt độ” có thể khiến kết quả trở nên xác định hơn hoặc ngẫu nhiên hơn và quá trình này được lặp lại. Các thành phần mạng thần kinh phổ biến cho các mô hình tự hồi quy bao gồm LSTM và máy biến áp (cho phép mạng thần kinh học các mẫu trong khối lượng dữ liệu huấn luyện văn bản rất lớn). Thay vì chỉ hoàn thành một chuỗi được cung cấp cho nó, chúng tôi thêm giai đoạn căn chỉnh vào các mô hình tự hồi quy. Tại đây, mô hình được đào tạo bổ sung để ưu tiên các cặp đầu vào-đầu ra nhất định hơn các cặp khác dựa trên phản hồi của con người. Ví dụ: Trong liên kết LLM, đã dạy thành công các mô hình cách trả lời các câu hỏi và lệnh (học tăng cường).
Dữ liệu đóng vai trò trung tâm trong việc phát triển các mô hình AI tổng quát, đặc biệt là Mô hình ngôn ngữ lớn (LLM). Những mô hình này dựa vào số lượng lớn dữ liệu để đào tạo và sàng lọc. Ví dụ: ChatGPT của OpenAI đã được đào tạo trên một tập dữ liệu mở rộng bao gồm hơn 45 terabyte dữ liệu văn bản được thu thập từ internet, bao gồm sách số hóa và các mục Wikipedia. Tuy nhiên, nhu cầu thu thập dữ liệu rộng rãi trong AI tổng hợp có thể gây ra những lo ngại đáng kể, bao gồm cả việc vô tình thu thập và sử dụng dữ liệu cá nhân mà không có sự đồng ý của các cá nhân. Các nhà nghiên cứu AI của Google cũng thừa nhận rằng những bộ dữ liệu này, thường lớn và có nguồn gốc từ nhiều nơi, có thể chứa thông tin cá nhân nhạy cảm, ngay cả khi được lấy từ dữ liệu có sẵn công khai.
Nhìn chung có hai nguồn phổ biến để thu thập dữ liệu:
Dữ liệu có thể truy cập công khai - Quét web là phương pháp phổ biến nhất được sử dụng để thu thập dữ liệu. Nó liên quan đến việc trích xuất khối lượng lớn thông tin từ các trang web có thể truy cập công khai. Dữ liệu này sau đó được sử dụng cho mục đích đào tạo hoặc có thể được sử dụng lại để bán hoặc cung cấp miễn phí cho các nhà phát triển AI khác. Dữ liệu thu được thông qua việc thu thập dữ liệu trên web thường bao gồm thông tin cá nhân được người dùng chia sẻ trên các nền tảng truyền thông xã hội như Facebook, Twitter, LinkedIn, Venmo và các trang web khác. Mặc dù các cá nhân có thể đăng thông tin cá nhân trên các nền tảng như vậy vì nhiều lý do, chẳng hạn như kết nối với các nhà tuyển dụng tiềm năng hoặc kết bạn mới, nhưng họ thường không có ý định sử dụng dữ liệu của mình để đào tạo các mô hình AI tổng hợp.
Dữ liệu người dùng - Dữ liệu được người dùng chia sẻ với các ứng dụng AI tổng hợp, chẳng hạn như chatbot, có thể được lưu trữ và sử dụng để đào tạo mà chủ thể dữ liệu không biết hoặc không đồng ý. Ví dụ: người dùng tương tác với các chatbot cung cấp lời khuyên chăm sóc sức khỏe, trị liệu, dịch vụ tài chính và các dịch vụ khác có thể tiết lộ thông tin cá nhân nhạy cảm. Mặc dù các chatbot như vậy có thể cung cấp các điều khoản dịch vụ đề cập rằng dữ liệu người dùng có thể được sử dụng để “phát triển và cải thiện dịch vụ”, nhưng các nhà phê bình có thể lập luận rằng các mô hình AI tổng quát nên tìm kiếm sự đồng ý chắc chắn từ người dùng hoặc cung cấp thông tin tiết lộ rõ ràng về việc thu thập, sử dụng và lưu giữ dữ liệu. dữ liệu người dùng.
Nhiều tổ chức cũng đã nhúng các mô hình AI tổng quát vào các sản phẩm hoặc dịch vụ của họ để nâng cao dịch vụ của họ. Sự tích hợp như vậy, trong một số trường hợp, cũng có thể đóng vai trò là nguồn dữ liệu, bao gồm cả dữ liệu cá nhân của người tiêu dùng, để đào tạo và tinh chỉnh các mô hình này.
Các mối đe dọa tiềm ẩn bao gồm:
Khi chúng ta bước vào kỷ nguyên chịu ảnh hưởng nặng nề bởi các công nghệ AI sáng tạo, việc quản trị trí tuệ nhân tạo ngày càng trở thành ưu tiên quan trọng đối với các doanh nghiệp muốn cho phép sử dụng dữ liệu và AI một cách an toàn đồng thời đáp ứng các yêu cầu pháp lý và đạo đức. Vào tháng 10 năm 2023, việc sử dụng trí tuệ nhân tạo “an toàn, bảo mật và đáng tin cậy” đã đảm bảo có lệnh điều hành từ chính quyền Biden-Harris ở Hoa Kỳ, một ban hành được ban hành theo sát Đạo luật AI của EU, đạo luật AI toàn diện đầu tiên trên thế giới. luật trên sổ sách. Các quốc gia khác, như Trung Quốc, Vương quốc Anh và Canada, và thậm chí một số tiểu bang của Hoa Kỳ đã vạch ra ranh giới riêng của họ trong việc đề xuất hoặc ban hành luật nhấn mạnh tầm quan trọng của an toàn, bảo mật và tính minh bạch trong AI.
Các nhà quản lý sản phẩm và lãnh đạo doanh nghiệp nói chung cần áp dụng tư duy sử dụng AI an toàn này trong khi kết hợp AI vào thực tiễn kinh doanh của họ. Quản trị AI hiệu quả mang lại khả năng kiểm soát và giám sát, đảm bảo rằng các doanh nghiệp phát triển và quản lý các dịch vụ AI của họ một cách có trách nhiệm, có đạo đức và tuân thủ cả chính sách nội bộ cũng như quy định bên ngoài một cách được ghi chép, hiệu quả và có thể chứng minh được. Nó sẽ cho phép các doanh nghiệp duy trì niềm tin và cũng tăng thêm trách nhiệm.
Quản trị AI đề cập đến việc áp đặt các khuôn khổ, quy tắc, tiêu chuẩn, yêu cầu pháp lý, chính sách và các phương pháp hay nhất để quản lý, quản lý và giám sát việc sử dụng trí tuệ nhân tạo. Nó liên quan đến việc chỉ đạo, quản lý và giám sát các hoạt động AI để đáp ứng các yêu cầu pháp lý và đạo đức. Về mặt đạo đức, các doanh nghiệp phải tập trung vào việc đảm bảo mức độ minh bạch, an toàn và bảo mật cao trong các mô hình AI của mình để xây dựng và duy trì niềm tin của khách hàng. Về mặt pháp lý, doanh nghiệp phải tuân thủ các yêu cầu pháp lý và đáp ứng các cơ quan quản lý, nếu không sẽ có nguy cơ bị phạt tài chính đáng kể và danh tiếng thương hiệu bị tổn hại.
Nghiên cứu của McKinsey ước tính rằng AI có thể tạo ra có thể đóng góp từ 2,6 nghìn tỷ USD đến 4,4 nghìn tỷ USD giá trị hàng năm trong tương lai. Tuy nhiên, để nhận ra tiềm năng này, các tổ chức phải triển khai AI theo cách minh bạch, an toàn và đáng tin cậy. Trên thực tế, Gartner gợi ý rằng các tổ chức vận hành thành công AI an toàn và đáng tin cậy có thể thấy tỷ lệ áp dụng AI và đạt được các mục tiêu kinh doanh của họ tăng 50%.
Chúng bao gồm những điều sau đây:
Một ví dụ về khung quản trị AI do Gartner phát triển là AI TRiSM - khung Quản lý niềm tin, rủi ro và bảo mật AI tập trung vào giảm thiểu rủi ro và liên kết với luật bảo mật dữ liệu trong việc sử dụng AI. Nó có bốn trụ cột, 1) Khả năng giải thích và giám sát mô hình - để đảm bảo tính minh bạch và độ tin cậy. 2) Vận hành mô hình - liên quan đến việc phát triển các quy trình và hệ thống để quản lý các mô hình AI trong suốt vòng đời của chúng. 3) Bảo mật ứng dụng AI - để giữ an toàn và bảo vệ các mô hình trước các mối đe dọa trên mạng. 4) Quyền riêng tư của mô hình - để bảo vệ dữ liệu được sử dụng để đào tạo hoặc kiểm tra các mô hình AI bằng cách quản lý luồng dữ liệu theo luật về quyền riêng tư (mục đích dữ liệu/giới hạn lưu trữ, nguyên tắc bảo vệ/giảm thiểu dữ liệu). Nhìn chung, TRiSM là một cách tiếp cận để nâng cao độ tin cậy, độ tin cậy, bảo mật và quyền riêng tư của mô hình AI.
Nâng cao khả năng hiển thị về các hệ thống AI - khám phá và lập danh mục các mô hình AI. Mục đích ở đây là cung cấp cho doanh nghiệp cái nhìn tổng quan đầy đủ và toàn diện về việc sử dụng AI của họ bằng cách xác định và ghi lại chi tiết của tất cả các mô hình AI được sử dụng trong đám mây công cộng, môi trường riêng tư và ứng dụng của bên thứ ba. Nó bao gồm các mục đích, dữ liệu đào tạo, kiến trúc, đầu vào, đầu ra và tương tác của mô hình, bao gồm cả các mô hình AI không có giấy tờ hoặc không được phê duyệt. Việc tạo danh mục tập trung các thông tin này giúp tăng cường tính minh bạch, quản trị và sử dụng hiệu quả AI, hỗ trợ đưa ra các quyết định và quản lý rủi ro tốt hơn. Điều cần thiết là phải tiết lộ đầy đủ các ứng dụng AI và phá vỡ các rào cản hoạt động trong tổ chức.
Đánh giá rủi ro toàn diện - đánh giá rủi ro và phân loại các mô hình AI. Mục đích ở đây là đánh giá rủi ro của hệ thống AI của họ ở giai đoạn tiền phát triển và phát triển, đồng thời thực hiện các bước giảm thiểu rủi ro. Nó liên quan đến việc tận dụng các thẻ mô hình để đưa ra các đánh giá rủi ro được xác định trước cho các mô hình AI, bao gồm mô tả mô hình, mục đích sử dụng, các hạn chế và các cân nhắc về đạo đức. Các xếp hạng rủi ro này cung cấp thông tin chi tiết toàn diện bao gồm các khía cạnh như độc tính, độc hại, sai lệch, cân nhắc về bản quyền, rủi ro ảo giác và thậm chí cả hiệu quả của mô hình về mức tiêu thụ năng lượng và thời gian suy luận. Dựa trên các xếp hạng này, tổ chức có thể quyết định nên xử phạt mô hình nào để triển khai và sử dụng, mô hình nào cần chặn và mô hình nào cần thêm lan can trước khi tiêu thụ.
Thực hành dữ liệu minh bạch - ánh xạ và giám sát dữ liệu theo luồng AI. Dữ liệu chảy vào hệ thống AI để đào tạo, điều chỉnh và suy luận và dữ liệu chảy ra khỏi hệ thống AI dưới dạng đầu ra. Nó cho phép các doanh nghiệp khám phá toàn bộ bối cảnh xung quanh các mô hình AI và hệ thống AI của họ. Đó là ánh xạ các mô hình và hệ thống AI tới các nguồn và hệ thống dữ liệu liên quan, xử lý dữ liệu, ứng dụng SaaS, rủi ro tiềm ẩn và nghĩa vụ tuân thủ. Việc lập bản đồ toàn diện này cho phép các nhóm về quyền riêng tư, tuân thủ, bảo mật và dữ liệu xác định các yếu tố phụ thuộc, xác định các điểm lỗi tiềm ẩn và đảm bảo rằng việc quản trị AI mang tính chủ động thay vì phản ứng.
Kiểm soát bảo mật mạnh mẽ - triển khai dữ liệu cho các biện pháp kiểm soát AI. Nó cho phép thiết lập các biện pháp kiểm soát chặt chẽ về tính bảo mật và bảo mật của dữ liệu được đưa vào và tạo ra từ các mô hình AI. Các biện pháp kiểm soát như vậy bao gồm kiểm soát bảo mật dữ liệu và quyền riêng tư được quy định tương ứng theo khuôn khổ bảo mật và luật về quyền riêng tư. Ví dụ: kỹ thuật biên tập hoặc ẩn danh có thể được áp dụng để xóa các giá trị có thể nhận dạng khỏi tập dữ liệu. Nó đảm bảo việc nhập dữ liệu an toàn vào các mô hình AI, phù hợp với chính sách dữ liệu doanh nghiệp và quyền lợi của người dùng. Nếu dữ liệu nhạy cảm tìm được đường vào các mô hình LLM thì việc bảo mật sẽ trở nên cực kỳ khó khăn. Tương tự, nếu dữ liệu doanh nghiệp được chuyển đổi sang dạng vector thì việc bảo mật sẽ trở nên khó khăn hơn. Về mặt tạo và xuất dữ liệu, việc bảo vệ các tương tác AI đòi hỏi phải thận trọng trước các cuộc tấn công từ bên ngoài, hoạt động sử dụng nội bộ độc hại và cấu hình sai. Để đảm bảo các cuộc trò chuyện an toàn với trợ lý, bot và tác nhân AI, tường lửa LLM phải được triển khai để lọc các lời nhắc, truy xuất và phản hồi có hại. Các tường lửa này phải có khả năng bảo vệ chống lại các lỗ hổng khác nhau được nêu bật trong Top 10 OWASP dành cho LLM và trong khung NIST AI RMF, bao gồm các cuộc tấn công tiêm nhiễm nhanh chóng và các cuộc tấn công đánh cắp dữ liệu.
Siêng năng tuân thủ các khuôn khổ quy định - tuân thủ các quy định. Các doanh nghiệp sử dụng hệ thống AI phải tuân thủ các quy định và tiêu chuẩn dành riêng cho AI cũng như các nghĩa vụ về quyền riêng tư dữ liệu liên quan đến việc sử dụng AI. Để hợp lý hóa quy trình tuân thủ khắt khe này, doanh nghiệp có thể tận dụng tính năng tự động hóa tuân thủ toàn diện được thiết kế riêng cho AI. Một hệ thống như vậy cung cấp một danh mục rộng rãi các quy định và khuôn khổ AI toàn cầu, bao gồm NIST AI RMF và Đạo luật AI của EU cùng nhiều đạo luật khác. Nó tạo điều kiện cho việc tạo ra các dự án AI riêng biệt trong khuôn khổ của nó, cho phép người dùng xác định và áp dụng các biện pháp kiểm soát cần thiết cho từng dự án. Quá trình này bao gồm cả kiểm tra và đánh giá tự động, yêu cầu đầu vào từ các bên liên quan, cung cấp cách tiếp cận toàn diện để đảm bảo tuân thủ.
Các doanh nghiệp triển khai thành công quản trị AI sẽ đạt được
a) Hoàn toàn minh bạch đối với các hệ thống AI được phê duyệt và không được phê duyệt của họ
b) Tầm nhìn rõ ràng về các rủi ro AI
c) Lập bản đồ AI và dữ liệu
d) Kiểm soát dữ liệu + AI tự động mạnh mẽ
e) Tuân thủ các quy định về AI toàn cầu.
Nhìn chung, chúng ta cần đảm bảo việc sử dụng AI một cách an toàn. Mặc dù việc ưu tiên an toàn có thể dẫn đến lợi nhuận kinh doanh thấp hơn một chút trong ngắn hạn trước mắt nhưng lợi ích trung và dài hạn là rất đáng kể.