Gần đây, Sam Altman đã đi khắp thế giới để cố gắng (có lẽ) nắm bắt các quy định về sự phát triển AI toàn cầu. Không có gì ngạc nhiên khi OpenAI không thích AI nguồn mở chút nào. Tuy nhiên, bài đăng này không phải về sự phát triển của AI mà là những thách thức về bảo mật và tiêu chuẩn hóa của nó. Nói chung, môi trường đe dọa mạng tiên tiến, cũng như khả năng nhận thức và ứng phó tình huống mạng của người bảo vệ (sau đây gọi chung là khả năng 'tự động hóa bảo mật') đều được điều khiển chủ yếu bởi hệ thống tự động hóa và AI. Để có ý tưởng, hãy thực hiện một việc đơn giản như kiểm tra và trả lời Gmail của bạn ngay hôm nay, đồng thời liệt kê các lớp AI và tự động hóa có thể cấu thành nên việc bảo mật và điều phối hoạt động đơn giản đó.
Do đó, tất cả các tổ chức có quy mô và mức độ phức tạp đáng chú ý đều phải dựa vào các hệ thống tự động hóa bảo mật để tác động đến chính sách an ninh mạng của họ. Điều thường bị bỏ qua là cũng tồn tại một số “ siêu chính sách ” an ninh mạng cho phép triển khai các hệ thống tự động hóa bảo mật này. Chúng có thể bao gồm các cơ chế trao đổi dữ liệu về mối đe dọa tự động, các quy ước phân bổ cơ bản và hệ thống quản lý/sản xuất kiến thức. Tất cả những điều này cho phép phát hiện và phản hồi thường được các nhà tiếp thị và luật sư gọi là “phòng thủ tích cực” hoặc “an ninh mạng chủ động”. Tuy nhiên, nếu bạn chọn bất kỳ chính sách an ninh mạng quốc gia nào, bạn sẽ khó tìm thấy bất kỳ điều gì về các siêu hình này - bởi vì chúng thường ngầm định, được đưa vào triển khai ở cấp quốc gia phần lớn do ảnh hưởng và bắt chước (tức là hiệu ứng mạng) chứ không phải do quá nhiều các cuộc thảo luận chính thức hoặc chiến lược.
Các siêu chính sách tự động hóa bảo mật này rất quan trọng đối với việc quản trị và bảo mật AI vì cuối cùng, tất cả các hệ thống AI này, dù hoàn toàn là kỹ thuật số hay vật lý mạng, đều tồn tại trong ma trận chiến lược và an ninh mạng rộng hơn. Chúng ta cần đặt câu hỏi liệu việc trang bị thêm các siêu chính sách tự động hóa phổ biến có phục vụ tốt cho tương lai của AI hay không.
Với xu hướng phụ thuộc vào đường dẫn trong các hệ thống thông tin tự động, những gì đã hoạt động tốt cho đến nay là ngày càng tiến sâu hơn vào các lĩnh vực mới hơn và phụ trợ của tự động hóa an ninh, như hệ sinh thái phương tiện thông minh/được kết nối. Hơn nữa, sự phát triển về bảo mật của phần mềm trên bánh xe đang dễ dàng được áp dụng trên nhiều hệ thống ô tô phức tạp, từ xe tăng được số hóa hoàn toàn hứa hẹn giảm quy mô phi hành đoàn và tăng khả năng sát thương cho đến các tiêu chuẩn để quản lý an ninh đội xe tự động và hệ thống vận chuyển bằng máy bay không người lái. Do đó, có sự gia tăng các SOC phương tiện (Trung tâm điều hành an ninh) hoạt động trên các dòng SOC an ninh mạng và sử dụng các cơ chế trao đổi dữ liệu tương tự, vay mượn các cách triển khai tương tự về tự động hóa bảo mật và phân phối thông tin. Điều đó sẽ hoàn toàn ổn nếu các phương tiện hiện có đủ tốt để trang bị thêm một cách mù quáng vào môi trường có mối đe dọa mới nổi. Nhưng họ ở xa nó.
Ví dụ: hầu hết các trao đổi dữ liệu về mối đe dọa an ninh mạng đều sử dụng Giao thức đèn giao thông (TLP) , tuy nhiên, bản thân TLP chỉ là một phân loại thông tin – việc thực thi nó và mọi chế độ mã hóa để hạn chế phân phối như dự định, đều được giao cho các nhà thiết kế tự động hóa bảo mật. hệ thống. Do đó, không chỉ cần có các biện pháp kiểm soát chi tiết hơn và phong phú hơn đối với việc chia sẻ dữ liệu với các hệ thống tự động hoàn toàn hoặc một phần mà còn để đảm bảo tuân thủ nó. Phần lớn các chính sách truyền thông về mối đe dọa như TLP giống với sổ tay hướng dẫn khét tiếng của Tallinn, theo cách mà đây gần như là sự thể hiện quan điểm mà các nhà cung cấp an ninh mạng có thể xem xét thực hiện hoặc có thể không. Sẽ trở nên rắc rối hơn khi các tiêu chuẩn dữ liệu về mối đe dọa dự kiến sẽ bao gồm việc phát hiện và phản hồi tự động (như trường hợp của tự động hóa ô tô và công nghiệp) - và có thể đã tích hợp hoặc không tích hợp chính sách trao đổi và bảo mật dữ liệu phù hợp do thiếu bất kỳ yêu cầu tuân thủ nào cần thực hiện. Vì thế.
Một ví dụ khác về siêu hình không nhất quán, trong số rất nhiều ví dụ khác, có thể được tìm thấy trong sự gia tăng gần đây của các hệ thống tạo ngôn ngữ và các tác nhân AI đàm thoại. Vấn đề là không phải tất cả các tác nhân đàm thoại đều là mạng lưới thần kinh lớn giống như ChatGPT. Hầu hết trong số này đã được triển khai trong nhiều thập kỷ dưới dạng các chương trình tạo ngôn ngữ dành riêng cho nhiệm vụ, dựa trên quy tắc. Việc có một “bức tranh hoạt động chung” bằng mô hình đối thoại và biểu diễn bối cảnh dựa trên biểu đồ giữa các chương trình như vậy (như một tổ chức hoạt động ở nhiều lĩnh vực/sân khấu có thể yêu cầu) là một thách thức đang diễn ra trước khi thế giới vấp phải “tất cả những gì bạn cần là sự chú ý”. Vì vậy, về cơ bản, hiện nay chúng ta có một cơ sở hạ tầng CNTT kế thừa khổng lồ trong giao diện người-máy và mô hình tự động hóa AI đa phương thức đang thách thức nó. Các tổ chức đang trải qua “chuyển đổi kỹ thuật số” không chỉ phải tránh kế thừa các khoản nợ kỹ thuật cũ mà còn phải xem xét các nguồn lực và yêu cầu tổ chức để vận hành hiệu quả mô hình phân phối lấy AI làm trung tâm. Có thể hiểu được, một số tổ chức (bao gồm cả chính phủ) có thể không muốn có một sự chuyển đổi hoàn toàn ngay lập tức. Thiếu dữ liệu được tiêu chuẩn hóa và trao đổi bối cảnh giữa các hệ thống tự động mới nổi và cũ, nhiều người dùng có thể sẽ tiếp tục sử dụng mô hình mà họ quen thuộc nhất chứ không phải mô hình mang tính cách mạng nhất.
Trên thực tế, phần lớn an ninh mạng ngày nay phụ thuộc vào việc trao đổi dữ liệu kịp thời và điều phối tự động, và do đó, các tiêu chuẩn thông tin cơ bản này trở nên cực kỳ quan trọng đối với các xã hội hiện đại (hậu công nghiệp) và việc quản trị các hệ thống vật lý không gian mạng. Tuy nhiên, thay vì xây dựng hoặc hài hòa các siêu chính sách sản xuất tri thức cần thiết để quản lý an ninh AI trong môi trường có mối đe dọa xuyên quốc gia và siêu kết nối – chúng ta dường như đang rơi vào những cái bẫy diệt vong của sự giải thoát hiện sinh và những thung lũng kỳ lạ bất tận. Điều đó nói lên rằng, một trong những lý do chính dẫn đến tình trạng thiếu tuân thủ và kịch bản phát triển tiêu chuẩn hỗn loạn trong quá trình sản xuất dữ liệu bảo mật là do thiếu cơ quan quản trị chính.
Các tiêu chuẩn chia sẻ thông tin về mối đe dọa mạng tập trung vào tự động hóa hiện nay thường tuân theo mô hình quản trị nhiều bên liên quan. Điều đó có nghĩa là những điều này tuân theo cách tiếp cận vòng đời cơ bản từ dưới lên, tức là tiêu chuẩn thông tin an ninh mạng được phát triển và sau đó được đẩy “lên trên” để tiêu chuẩn hóa chéo với ITU và ISO. Sự di chuyển đi lên của các tiêu chuẩn kỹ thuật này không hề dễ dàng. Biểu thức thông tin về mối đe dọa mạng có cấu trúc (STIX), có lẽ là tiêu chuẩn công nghiệp trên thực tế hiện nay để truyền Thông tin về mối đe dọa mạng (CTI) mà máy có thể đọc được, vẫn đang chờ ITU phê duyệt. Điều đó không thực sự cần thiết, bởi vì cách cấu trúc quản trị toàn cầu về công nghệ, nó được dẫn dắt bởi ngành công nghiệp chứ không phải các quốc gia. G7 đã đi đến mức chính thức hóa điều này và một số thành viên thậm chí còn ngăn chặn mọi nỗ lực ngoại giao hướng tới bất kỳ bộ quy tắc nào khác.
Điều này có tác dụng tốt đối với những quốc gia có năng lực cơ cấu và năng suất cần thiết trong quan hệ đối tác công nghệ công-tư của họ. Do đó, việc quản trị toàn cầu các tiêu chuẩn công nghệ mạng trở thành sự phản ánh trật tự toàn cầu. Không nêu tên các tác nhân đe dọa mạng, điều này về bản chất vẫn tương đối khách quan. Nhưng điều đó không còn đúng nữa với việc tích hợp thông tin sai lệch trực tuyến vào các hoạt động tấn công mạng và chính sách an ninh mạng quốc gia – không chỉ các tiêu chuẩn thông tin thông thường có thể gặp phải xung đột về ngữ nghĩa, mà các tiêu chuẩn hướng đến giá trị mới hơn đối với môi trường thông tin cũng đang xuất hiện . Do việc sản xuất và chia sẻ các chỉ số về mối đe dọa chính trị/xã hội được thúc đẩy tự động hóa có thể được định hình và ảnh hưởng đến các ưu tiên chính trị, khi các mối đe dọa về thông tin do AI tạo ra và mạng botnet xã hội tăng lên, các tiêu chuẩn thông tin về mối đe dọa an ninh mạng cũng chuyển từ mục tiêu đủ sang chủ quan hơn. tư thế. Và các quốc gia có thể làm rất ít để cấu hình lại hệ thống hiện tại này vì chính trị của các tiêu chuẩn an ninh mạng đã gắn bó sâu sắc với sự phát triển của nhiều bên liên quan theo định hướng thị trường của họ.
Phân bổ mối đe dọa mạng là một trường hợp điển hình. MITER bắt đầu với tư cách là nhà thầu của DARPA và ngày nay đóng vai trò là cơ sở kiến thức thực tế trên toàn ngành về các mối đe dọa và lỗ hổng mạng máy tính. Trong số các nhóm Đe dọa liên tục nâng cao được liệt kê trong MITER ATT&CK, gần 1/3 các mối đe dọa mạng là từ Trung Quốc, 1/3 khác đến từ Nga/Hàn Quốc/Trung Đông/Ấn Độ/Nam Mỹ, v.v. và 1/3 còn lại ( chứa các TTP phức tạp nhất, tỷ lệ khai thác zero-day lớn nhất và nhắm mục tiêu phù hợp về mặt địa chính trị) vẫn chưa được phân bổ. Chúng tôi sẽ không suy đoán ở đây nhưng lý do thuyết phục về cụm mối đe dọa không được xác định có thể để lại cho độc giả một số ý tưởng về sở thích và chính trị của việc sản xuất CTI toàn cầu.
Một thực tế của cuộc sống là trong các quốc gia tìm kiếm quyền lực trên không gian mạng đã và đang đóng vai trò là
Các tác nhân quản trị và những kẻ phạm tội tinh vi cùng một lúc, do đó, chủ nghĩa đa bên do thị trường dẫn đầu này đã phát huy hiệu quả đối với logic hoạt động của họ - ban hành một nền chính trị toàn cầu về khả năng tương tác . Nhưng điều đó không tốt cho việc sản xuất kiến thức về mối đe dọa mạng và tự động hóa bảo mật, điều này đôi khi có thể khá thiên vị và có động cơ chính trị qua internet. Xã hội đã đi theo con đường này đủ lâu để thậm chí không coi đó là một vấn đề khi chuyển sang một thế giới được bao quanh bởi các hệ thống ngày càng tự chủ.
Với rủi ro AI xã hội ngày càng lớn, các quốc gia có ý định triển khai tư thế tự động hóa an ninh mạng có thể phòng thủ ngày nay có thể phải điều hướng tỷ lệ tín hiệu trên nhiễu cao trong thông tin về mối đe dọa an ninh mạng, nhiều nhà cung cấp CTI và siêu chính sách, cũng như áp lực liên tục từ ngành và quốc tế. các tổ chức về “đạo đức AI” và “chuẩn mực mạng” (chúng ta sẽ không thảo luận về “đạo đức của ai?” ở đây). Sự hỗn loạn này, như chúng tôi đã lưu ý, là kết quả của việc thiết kế các phương pháp tiếp cận từ dưới lên. Tuy nhiên, cách tiếp cận từ trên xuống có thể thiếu tính linh hoạt và linh hoạt như cách tiếp cận từ dưới lên. Vì lý do này, cần phải tích hợp những gì tốt nhất của chủ nghĩa đa bên với những gì tốt nhất của chủ nghĩa đa phương.
Điều đó có nghĩa là hợp lý hóa việc thiết lập các tiêu chuẩn thông tin từ dưới lên hiện nay theo tầm nhìn và khuôn khổ đa phương. Mặc dù chúng tôi muốn tránh việc sản xuất dữ liệu về các mối đe dọa đảng phái, nhưng chúng tôi cũng muốn tận dụng nguồn kiến thức chuyên môn khác nhau trong ngành đòi hỏi sự phối hợp, giải quyết và chỉ đạo. Mặc dù một số cơ quan của Liên hợp quốc, như ITU và UNDIR, đóng vai trò quan trọng trong các siêu chính sách an ninh mạng toàn cầu - nhưng chúng không có hiệu lực quản lý từ trên xuống cần thiết để quản lý AI xã hội độc hại qua internet hoặc thực hiện bất kỳ biện pháp kiểm soát siêu chính sách nào đối với việc chia sẻ mối đe dọa cho nền tảng tự trị phân tán. Do đó, sự tích hợp giữa chủ nghĩa đa bên với chủ nghĩa đa phương cần phải bắt đầu từ chính Hội đồng Bảo an hoặc bất kỳ tổ chức an ninh quốc tế tương đương nào khác.
Không phải điều này là không lường trước được. Khi nghị quyết đầu tiên của Liên Hợp Quốc được đưa ra để đánh giá Công nghệ thông tin vào năm 1998, đặc biệt là Internet, một số quốc gia đã chỉ ra rõ ràng rằng những công nghệ này sẽ xung đột với an ninh và ổn định quốc tế, ám chỉ những cải cách cần thiết ở mức độ an ninh quốc tế cao nhất. Thật vậy, UNSC với tư cách là một tổ chức đã không phát triển tốt với công nghệ kỹ thuật số và thực tế an ninh hậu internet. Sự gia tăng không hạn chế của các hoạt động APT liên kết với nhà nước chỉ là một ví dụ về việc nó không thể điều chỉnh các hoạt động gây bất ổn của nhà nước. Hơn nữa, trong khi hội đồng dường như vẫn bị mắc kẹt trong tầm nhìn năm 1945 về an ninh chiến lược, thì có đủ lý do và bằng chứng để thay đổi ý tưởng về “bạo lực nhà nước” dựa trên khả năng tấn công mạng và AI được triển khai một cách chiến lược.
Mặc dù việc vượt qua khả năng phục hồi của trật tự toàn cầu và bộ máy quan liêu cố hữu của nó không phải là điều dễ dàng, nhưng nếu được cải cách về điều lệ và thành phần, hội đồng (hoặc cơ quan thay thế) có thể đóng vai trò là một tổ chức có giá trị để lấp đầy khoảng trống do thiếu một cơ chế cơ quan chính trong việc hướng dẫn các tiêu chuẩn quản trị và bảo mật thúc đẩy tự động hóa bảo mật và các ứng dụng AI trong không gian mạng.
Tại thời điểm này, điều cần thiết là chúng ta phải nêu ra một số hiểu lầm nhất định. Có vẻ như các cơ quan quản lý có một số ý tưởng về việc quản lý “các sản phẩm AI”, ít nhất là Đạo luật AI của EU cũng gợi ý điều tương tự. Ở đây, chúng ta phải dành một chút im lặng và tĩnh lặng để suy ngẫm về “AI” hay “hành vi tự chủ” là gì - và hầu hết chúng ta sẽ sớm nhận ra rằng các phương pháp chứng nhận sản phẩm hiện tại có thể không đủ để giải quyết các hệ thống thích ứng bắt nguồn từ liên tục học hỏi và trao đổi dữ liệu với thế giới thực. Điều chúng tôi đang muốn nói là các cơ quan quản lý có lẽ cần phải xem xét nghiêm túc những ưu và nhược điểm của cách tiếp cận lấy sản phẩm làm trung tâm so với cách tiếp cận lấy quy trình làm trung tâm để điều chỉnh AI.
AI, cuối cùng, là một kết quả. Đó là các quy trình và chính sách cơ bản, từ thực tiễn kỹ thuật dữ liệu và kiến trúc mô hình đến cơ chế tối ưu hóa và trao đổi thông tin giữa các máy với nhau, trong đó cần phải tập trung vào quản trị và tiêu chuẩn chứ không phải vào kết quả. Hơn nữa, khi phần mềm chuyển từ mô hình kỹ thuật hướng đối tượng sang mô hình kỹ thuật hướng tác nhân, các cơ quan quản lý cần bắt đầu suy nghĩ về chính sách về mặt mã và mã về mặt chính sách – bất kỳ điều gì khác sẽ luôn để lại một khoảng cách lớn giữa ý định và việc triển khai.
Nếu sự hỗn loạn nói trên trong quản trị an ninh mạng của nhiều bên liên quan ngày nay là điều có thể xảy ra, thì để bảo mật và quản trị AI, chúng ta cần một phương pháp dựa trên bằng chứng (xem xét dữ liệu dẫn đến CTI cuối cùng và thu hút các loại bằng chứng kỹ thuật mới), sắp xếp dữ liệu về mối đe dọa, xác minh thời gian chạy về tự động hóa do AI điều khiển trong các hệ thống an ninh và phòng thủ mạng, các kênh và tiêu chuẩn rõ ràng phi đảng phái để quản lý thông tin về mối đe dọa mạng và sự đồng thuận đa phương về vấn đề tương tự. Chỉ tập trung vào sản phẩm AI cuối cùng có thể khiến nhiều vấn đề không được giải quyết và có khả năng mang tính đảng phái - như chúng ta thấy từ hệ sinh thái siêu chính sách thông tin thúc đẩy các hệ thống tự động hóa bảo mật trên toàn thế giới - do đó chúng ta cần tập trung vào việc quản lý tốt hơn các quy trình và chính sách cơ bản thúc đẩy các hệ thống này chứ không phải kết quả của các quá trình và chính sách đó.
Cũng được xuất bản ở đây.