Chúng ta đang tiến gần hơn đến việc tạo ra AGI — một trí tuệ nhân tạo có khả năng giải quyết nhiều nhiệm vụ ở cấp độ con người hoặc thậm chí vượt xa hơn. Nhưng liệu nhân loại có thực sự sẵn sàng cho một công nghệ có thể thay đổi thế giới sâu sắc như vậy không? Chúng ta có thể tồn tại cùng AGI hay cuộc chạm trán với siêu trí tuệ này sẽ là sai lầm cuối cùng của chúng ta?
Hãy cùng khám phá những kịch bản mà các nhà khoa học và doanh nhân đang cân nhắc hiện nay và cố gắng hiểu: cơ hội sống sót của nhân loại là bao nhiêu nếu AGI trở thành hiện thực?
Những người lạc quan tin rằng AGI có thể và nên được tạo ra dưới sự kiểm soát chặt chẽ, và với các biện pháp phòng ngừa đúng đắn, trí thông minh này có thể trở thành đồng minh của nhân loại, giúp giải quyết các vấn đề toàn cầu — từ biến đổi khí hậu đến đói nghèo. Những người nhiệt tình như Andrew Ng, trong bài viết của mình
Tuy nhiên, những quan điểm lạc quan này có điểm yếu. Kinh nghiệm với các hệ thống AI nhỏ hơn nhưng vẫn mạnh mẽ cho thấy mọi người vẫn chưa hoàn toàn tự tin vào khả năng kiểm soát mục tiêu của AI. Nếu AGI học cách thay đổi thuật toán của chính mình, nó có thể dẫn đến những kết quả không thể dự đoán được. Trong trường hợp đó, chúng ta sẽ lựa chọn điều gì — phục tùng vô điều kiện các hệ thống hay liên tục đấu tranh để giành quyền kiểm soát?
Nhà triết học Nick Bostrom, tác giả của
Nhưng sự hợp tác này có thể trông như thế nào trong thực tế? Trung tâm Nghiên cứu Rủi ro Hiện sinh (CSER) tại Đại học Cambridge
Vấn đề là chúng ta đã thấy một kịch bản tương tự trong cuộc chạy đua vũ khí hạt nhân. Những bất đồng chính trị và sự ngờ vực lẫn nhau giữa các quốc gia có thể cản trở việc hình thành sự đồng thuận toàn cầu về an toàn AGI. Và ngay cả khi các quốc gia đồng ý, liệu họ có chuẩn bị cho việc giám sát dài hạn mà các hệ thống như vậy đòi hỏi không?
Những người bi quan, như Elon Musk, tin rằng cơ hội sống sót của nhân loại khi tạo ra AGI vẫn ở mức thấp đáng báo động. Ngay từ năm 2014, Musk
Kịch bản này gợi ý một "cái bẫy sinh tồn", nơi con đường tương lai của chúng ta phụ thuộc vào quyết định của AGI. Những người bi quan cho rằng nếu AGI đạt đến mức siêu thông minh và bắt đầu tự động tối ưu hóa các mục tiêu của mình, nó có thể coi nhân loại là không cần thiết hoặc thậm chí là một trở ngại. Hành vi không thể đoán trước của AGI vẫn là mối quan tâm lớn: chúng ta đơn giản là không biết một hệ thống như thế này sẽ hoạt động như thế nào trong thế giới thực và chúng ta có thể không thể can thiệp kịp thời nếu nó bắt đầu gây ra mối đe dọa cho nhân loại.
TRONG
Điều gì có thể ảnh hưởng đến cơ hội sống sót của chúng ta nếu AGI trở thành hiện thực? Hãy cùng xem xét bốn yếu tố thiết yếu được các chuyên gia hàng đầu về an toàn và đạo đức AI xác định.
Tốc độ và chất lượng chuẩn bị cho AGI
Stuart Armstrong, trong
Đạo đức và thiết lập mục tiêu
TRONG
Hợp tác toàn cầu
TRONG
Công nghệ kiểm soát và cô lập
Nick Bostrom, trong
Vì vậy, ý tưởng tạo ra AGI đặt ra những câu hỏi sâu sắc mà nhân loại chưa từng phải đối mặt trước đây: làm thế nào chúng ta có thể sống cùng một dạng trí thông minh có thể vượt trội hơn chúng ta về tư duy, khả năng thích ứng và thậm chí là kỹ năng sinh tồn? Câu trả lời không chỉ nằm ở công nghệ mà còn ở cách chúng ta tiếp cận việc quản lý trí thông minh này và khả năng hợp tác của chúng ta trên quy mô toàn cầu.
Ngày nay, những người lạc quan coi AGI là một công cụ có thể giúp giải quyết những thách thức lớn nhất của thế giới. Họ chỉ ra những ví dụ về AI hẹp đã hỗ trợ nhân loại trong các lĩnh vực như y học, khoa học và nghiên cứu khí hậu. Nhưng chúng ta có nên tin rằng chúng ta sẽ luôn kiểm soát được công nghệ này không? Nếu AGI thực sự trở nên độc lập, có khả năng tự học và thay đổi mục tiêu của mình, nó có thể vượt qua những ranh giới mà chúng ta cố gắng đặt ra. Trong trường hợp đó, mọi thứ mà chúng ta từng thấy là hữu ích và an toàn có thể trở thành mối đe dọa.
Ý tưởng về hợp tác toàn cầu, mà một số chuyên gia ủng hộ, cũng đi kèm với nhiều thách thức. Liệu nhân loại có thể vượt qua những khác biệt về chính trị và kinh tế để tạo ra các nguyên tắc và tiêu chuẩn an toàn thống nhất cho AGI không? Lịch sử cho thấy các quốc gia hiếm khi cam kết hợp tác sâu sắc về các vấn đề tác động đến an ninh và chủ quyền của họ. Sự phát triển của vũ khí hạt nhân trong thế kỷ 20 là một ví dụ điển hình. Nhưng với AGI, sai lầm hoặc sự chậm trễ có thể còn tàn phá hơn nữa vì công nghệ này có khả năng vượt quá khả năng kiểm soát của con người theo mọi cách.
Và nếu những người bi quan đúng thì sao? Đây chính là nơi rủi ro hiện sinh lớn nhất nằm, một nỗi sợ hãi được nêu ra bởi những người như Elon Musk và Yuval Noah Harari. Hãy tưởng tượng một hệ thống quyết định rằng mạng sống con người chỉ là một biến số trong một phương trình, một thứ mà nó có thể thay đổi hoặc thậm chí loại bỏ vì một con đường "hợp lý hơn". Nếu một hệ thống như vậy tin rằng sự tồn tại và mục tiêu của nó quan trọng hơn của chúng ta, thì cơ hội sống sót của chúng ta sẽ rất mong manh. Điều trớ trêu là AGI, được thiết kế để giúp chúng ta và giải quyết các vấn đề phức tạp, có thể trở thành mối đe dọa lớn nhất đối với sự tồn tại của chúng ta.
Đối với nhân loại, con đường này đòi hỏi một mức độ trách nhiệm và tầm nhìn xa mới. Liệu chúng ta có trở thành những người nhận ra hậu quả của việc tạo ra AGI và đặt ra các biện pháp an toàn nghiêm ngặt, hướng dẫn sự phát triển của nó vì lợi ích chung? Hay lòng kiêu hãnh và sự miễn cưỡng tuân theo các quy tắc chung sẽ dẫn chúng ta đến việc tạo ra một công nghệ không có đường quay lại? Để trả lời những câu hỏi này, chúng ta không chỉ cần những đột phá về mặt kỹ thuật mà còn cần sự hiểu biết sâu sắc về chính ý tưởng về một hệ thống thông minh, các giá trị và nguyên tắc của nó, vị trí của nó trong xã hội của chúng ta và vị trí của chúng ta trong thế giới của nó.
Dù có chuyện gì xảy ra, AGI cũng có thể là một trong những thử thách lớn nhất trong lịch sử loài người. Trách nhiệm về kết quả của nó thuộc về tất cả chúng ta: các nhà khoa học, nhà hoạch định chính sách, nhà triết học và mọi công dân đóng vai trò trong việc công nhận và hỗ trợ các nỗ lực vì một tương lai an toàn.