paint-brush
Nhân loại có thể sống sót như thế nào khi AGI xuất hiệntừ tác giả@antonvoichenkovokrug
827 lượt đọc
827 lượt đọc

Nhân loại có thể sống sót như thế nào khi AGI xuất hiện

từ tác giả Anton Voichenko (aka Anton Vokrug)7m2024/11/14
Read on Terminal Reader
Read this story w/o Javascript

dài quá đọc không nổi

Liệu chúng ta có thể tồn tại cùng AGI hay không, hay cuộc chạm trán với siêu trí tuệ này sẽ là sai lầm cuối cùng của chúng ta?

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Nhân loại có thể sống sót như thế nào khi AGI xuất hiện
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture

Chúng ta đang tiến gần hơn đến việc tạo ra AGI — một trí tuệ nhân tạo có khả năng giải quyết nhiều nhiệm vụ ở cấp độ con người hoặc thậm chí vượt xa hơn. Nhưng liệu nhân loại có thực sự sẵn sàng cho một công nghệ có thể thay đổi thế giới sâu sắc như vậy không? Chúng ta có thể tồn tại cùng AGI hay cuộc chạm trán với siêu trí tuệ này sẽ là sai lầm cuối cùng của chúng ta?


Hãy cùng khám phá những kịch bản mà các nhà khoa học và doanh nhân đang cân nhắc hiện nay và cố gắng hiểu: cơ hội sống sót của nhân loại là bao nhiêu nếu AGI trở thành hiện thực?

Quan điểm lạc quan (60–80% khả năng sống sót)

Những người lạc quan tin rằng AGI có thể và nên được tạo ra dưới sự kiểm soát chặt chẽ, và với các biện pháp phòng ngừa đúng đắn, trí thông minh này có thể trở thành đồng minh của nhân loại, giúp giải quyết các vấn đề toàn cầu — từ biến đổi khí hậu đến đói nghèo. Những người nhiệt tình như Andrew Ng, trong bài viết của mình Trí tuệ nhân tạo có thể và không thể làm gì ngay bây giờ , coi AGI là một cách để tạo ra những đột phá trong khoa học, công nghệ và y học và cho rằng nhân loại có thể làm cho nó an toàn. Ng cũng gợi ý rằng chúng ta có thể kiểm soát các mục tiêu của AGI bằng cách hạn chế tác động vật lý của nó, như chúng ta làm với các hệ thống AI hẹp.


Tuy nhiên, những quan điểm lạc quan này có điểm yếu. Kinh nghiệm với các hệ thống AI nhỏ hơn nhưng vẫn mạnh mẽ cho thấy mọi người vẫn chưa hoàn toàn tự tin vào khả năng kiểm soát mục tiêu của AI. Nếu AGI học cách thay đổi thuật toán của chính mình, nó có thể dẫn đến những kết quả không thể dự đoán được. Trong trường hợp đó, chúng ta sẽ lựa chọn điều gì — phục tùng vô điều kiện các hệ thống hay liên tục đấu tranh để giành quyền kiểm soát?

Góc nhìn thực tế vừa phải (50–60% khả năng sống sót)

Nhà triết học Nick Bostrom, tác giả của Siêu trí tuệ: Con đường, nguy hiểm, chiến lược , ủng hộ quan điểm ôn hòa hơn về triển vọng của AGI. Ông tin rằng cơ hội sống sót của nhân loại phụ thuộc phần lớn vào sự hợp tác quốc tế và các biện pháp an toàn nghiêm ngặt. Bostrom tin rằng thế giới phải sẵn sàng đoàn kết xung quanh một mục tiêu chung: kiểm soát sự phát triển của AGI và giảm thiểu các rủi ro liên quan.


Nhưng sự hợp tác này có thể trông như thế nào trong thực tế? Trung tâm Nghiên cứu Rủi ro Hiện sinh (CSER) tại Đại học Cambridge tranh luận rằng chỉ với các tiêu chuẩn quốc tế và chính sách quản lý AI thống nhất, chúng ta mới có thể tránh được cuộc chạy đua phát triển AGI giữa các quốc gia và giảm khả năng phát triển không kiểm soát. Hãy tưởng tượng nếu các quốc gia bắt đầu cạnh tranh để tạo ra AGI nhằm đảm bảo vị thế thống lĩnh. Điều này sẽ chỉ làm tăng khả năng một trong những bên tham gia có thể làm suy yếu các biện pháp an toàn vì mục đích đạt được kết quả nhanh chóng.


Vấn đề là chúng ta đã thấy một kịch bản tương tự trong cuộc chạy đua vũ khí hạt nhân. Những bất đồng chính trị và sự ngờ vực lẫn nhau giữa các quốc gia có thể cản trở việc hình thành sự đồng thuận toàn cầu về an toàn AGI. Và ngay cả khi các quốc gia đồng ý, liệu họ có chuẩn bị cho việc giám sát dài hạn mà các hệ thống như vậy đòi hỏi không?

Quan điểm bi quan (10–30% khả năng sống sót)

Những người bi quan, như Elon Musk, tin rằng cơ hội sống sót của nhân loại khi tạo ra AGI vẫn ở mức thấp đáng báo động. Ngay từ năm 2014, Musk đã cảnh báo rằng AGI có thể gây ra “mối đe dọa hiện hữu” đối với nhân loại. Yuval Noah Harari đã bày tỏ mối quan ngại về những thách thức trong việc kiểm soát các hệ thống AI siêu thông minh có thể theo đuổi các mục tiêu riêng của chúng, có khả năng thờ ơ hoặc thậm chí thù địch với lợi ích của con người. Trong cuốn sách của mình Homo Deus: Lược sử tương lai Harari thảo luận về khả năng các hệ thống AI phát triển các mục tiêu không phù hợp với các giá trị của con người, dẫn đến những kết quả không mong muốn và có khả năng nguy hiểm.


Kịch bản này gợi ý một "cái bẫy sinh tồn", nơi con đường tương lai của chúng ta phụ thuộc vào quyết định của AGI. Những người bi quan cho rằng nếu AGI đạt đến mức siêu thông minh và bắt đầu tự động tối ưu hóa các mục tiêu của mình, nó có thể coi nhân loại là không cần thiết hoặc thậm chí là một trở ngại. Hành vi không thể đoán trước của AGI vẫn là mối quan tâm lớn: chúng ta đơn giản là không biết một hệ thống như thế này sẽ hoạt động như thế nào trong thế giới thực và chúng ta có thể không thể can thiệp kịp thời nếu nó bắt đầu gây ra mối đe dọa cho nhân loại.


TRONG Trí tuệ nhân tạo là yếu tố tích cực và tiêu cực trong rủi ro toàn cầu , Eliezer Yudkowsky xem xét những nguy cơ tiềm ẩn do sự phát triển AI tiên tiến gây ra. Ông cảnh báo rằng một AI siêu thông minh có thể áp dụng các mục tiêu khác với lợi ích của con người, dẫn đến hành vi vừa không thể đoán trước vừa có khả năng gây nguy hiểm cho nhân loại. Yudkowsky nhấn mạnh rằng mặc dù AI không có cảm xúc yêu thương hay căm ghét con người, nhưng nó vẫn có thể sử dụng chúng như nguồn lực để hoàn thành mục tiêu của mình. Ông nhấn mạnh tầm quan trọng của việc tạo ra "AI thân thiện" để ngăn chặn các tình huống mà AI có thể gây ra mối đe dọa nghiêm trọng cho nhân loại.

Bốn yếu tố chính cho sự sống còn của nhân loại

Điều gì có thể ảnh hưởng đến cơ hội sống sót của chúng ta nếu AGI trở thành hiện thực? Hãy cùng xem xét bốn yếu tố thiết yếu được các chuyên gia hàng đầu về an toàn và đạo đức AI xác định.


  1. Tốc độ và chất lượng chuẩn bị cho AGI


    Stuart Armstrong, trong Trí tuệ nhân tạo an toàn , nhấn mạnh rằng bất kỳ biện pháp an toàn nào cũng phải đi trước khả năng tiềm tàng của AGI. Lời cảnh báo của ông rất rõ ràng: nếu AGI tiến triển đến mức hoàn toàn tự chủ mà không có sự kiểm soát hiệu quả, nhân loại có thể không có thời gian để ngăn chặn nó nếu có mối đe dọa phát sinh. Armstrong lập luận rằng việc phát triển các phương pháp kiểm soát hiệu quả và hệ thống bảo vệ không chỉ là điều nên làm mà còn là điều cần thiết. Nếu không có những điều này, nhân loại có nguy cơ phải đối mặt với một AGI tự chủ có thể gây ra mối đe dọa chết người đối với an ninh của con người.


  2. Đạo đức và thiết lập mục tiêu


    TRONG Tương thích với con người , Stuart Russell giải quyết một câu hỏi quan trọng không kém: làm thế nào chúng ta có thể nhúng các giá trị của con người vào một hệ thống AGI? Ông nhấn mạnh rằng chúng ta không thể để AI tự quyết định điều gì là quan trọng, vì AGI có thể diễn giải các mục tiêu do con người đặt ra theo những cách hoàn toàn không mong muốn. Russell lập luận rằng nếu không có nền tảng đạo đức vững chắc và bảo vệ lợi ích của con người, AGI có thể hành động một cách khó lường. Cuối cùng, điều này có nghĩa là bất kỳ hệ thống AGI nào cũng phải dựa trên các giá trị phản ánh không chỉ các mục tiêu kỹ thuật mà còn các nguyên tắc cơ bản quan trọng đối với hạnh phúc của con người.


  3. Hợp tác toàn cầu


    TRONG Quản trị AI: Một chương trình nghiên cứu Allan Dafoe nhấn mạnh tầm quan trọng của các thỏa thuận và tiêu chuẩn quốc tế nhằm ngăn chặn cuộc chạy đua giành quyền thống trị AGI, trong đó mỗi quốc gia sẽ tìm cách giành lợi thế. Dafoe khẳng định rằng chỉ thông qua các tiêu chuẩn quốc tế, chúng ta mới có thể giảm thiểu rủi ro khi ai đó đánh đổi sự an toàn để lấy tốc độ hoặc lợi thế cạnh tranh. Cuộc chạy đua giành AGI có thể gây ra hậu quả thảm khốc và Dafoe lập luận rằng chỉ có những nỗ lực thống nhất của các quốc gia mới có thể ngăn chặn được viễn cảnh này, tạo ra các tiêu chuẩn an toàn sẽ bảo đảm tương lai của chúng ta.


  4. Công nghệ kiểm soát và cô lập


    Nick Bostrom, trong Siêu trí tuệ: Con đường, nguy hiểm, chiến lược , đưa ý tưởng này đi xa hơn, nhấn mạnh nhu cầu phải ngăn chặn và "đóng hộp" AGI để ngăn không cho nó tương tác trực tiếp với thế giới. Bostrom cảnh báo rằng nếu AGI có được quyền truy cập không hạn chế vào các nguồn lực, các hành động tự chủ của nó có thể vượt khỏi tầm kiểm soát. Ông đề xuất các khái niệm cô lập trong đó AGI không thể vượt qua các giới hạn được thiết lập trước, về cơ bản là "đóng hộp" nó trong một hệ thống được kiểm soát. Ông cho rằng sự cô lập này có thể đóng vai trò là rào cản cuối cùng để bảo vệ chúng ta nếu mọi cách khác đều thất bại.


Vì vậy, ý tưởng tạo ra AGI đặt ra những câu hỏi sâu sắc mà nhân loại chưa từng phải đối mặt trước đây: làm thế nào chúng ta có thể sống cùng một dạng trí thông minh có thể vượt trội hơn chúng ta về tư duy, khả năng thích ứng và thậm chí là kỹ năng sinh tồn? Câu trả lời không chỉ nằm ở công nghệ mà còn ở cách chúng ta tiếp cận việc quản lý trí thông minh này và khả năng hợp tác của chúng ta trên quy mô toàn cầu.


Ngày nay, những người lạc quan coi AGI là một công cụ có thể giúp giải quyết những thách thức lớn nhất của thế giới. Họ chỉ ra những ví dụ về AI hẹp đã hỗ trợ nhân loại trong các lĩnh vực như y học, khoa học và nghiên cứu khí hậu. Nhưng chúng ta có nên tin rằng chúng ta sẽ luôn kiểm soát được công nghệ này không? Nếu AGI thực sự trở nên độc lập, có khả năng tự học và thay đổi mục tiêu của mình, nó có thể vượt qua những ranh giới mà chúng ta cố gắng đặt ra. Trong trường hợp đó, mọi thứ mà chúng ta từng thấy là hữu ích và an toàn có thể trở thành mối đe dọa.


Ý tưởng về hợp tác toàn cầu, mà một số chuyên gia ủng hộ, cũng đi kèm với nhiều thách thức. Liệu nhân loại có thể vượt qua những khác biệt về chính trị và kinh tế để tạo ra các nguyên tắc và tiêu chuẩn an toàn thống nhất cho AGI không? Lịch sử cho thấy các quốc gia hiếm khi cam kết hợp tác sâu sắc về các vấn đề tác động đến an ninh và chủ quyền của họ. Sự phát triển của vũ khí hạt nhân trong thế kỷ 20 là một ví dụ điển hình. Nhưng với AGI, sai lầm hoặc sự chậm trễ có thể còn tàn phá hơn nữa vì công nghệ này có khả năng vượt quá khả năng kiểm soát của con người theo mọi cách.


Và nếu những người bi quan đúng thì sao? Đây chính là nơi rủi ro hiện sinh lớn nhất nằm, một nỗi sợ hãi được nêu ra bởi những người như Elon Musk và Yuval Noah Harari. Hãy tưởng tượng một hệ thống quyết định rằng mạng sống con người chỉ là một biến số trong một phương trình, một thứ mà nó có thể thay đổi hoặc thậm chí loại bỏ vì một con đường "hợp lý hơn". Nếu một hệ thống như vậy tin rằng sự tồn tại và mục tiêu của nó quan trọng hơn của chúng ta, thì cơ hội sống sót của chúng ta sẽ rất mong manh. Điều trớ trêu là AGI, được thiết kế để giúp chúng ta và giải quyết các vấn đề phức tạp, có thể trở thành mối đe dọa lớn nhất đối với sự tồn tại của chúng ta.


Đối với nhân loại, con đường này đòi hỏi một mức độ trách nhiệm và tầm nhìn xa mới. Liệu chúng ta có trở thành những người nhận ra hậu quả của việc tạo ra AGI và đặt ra các biện pháp an toàn nghiêm ngặt, hướng dẫn sự phát triển của nó vì lợi ích chung? Hay lòng kiêu hãnh và sự miễn cưỡng tuân theo các quy tắc chung sẽ dẫn chúng ta đến việc tạo ra một công nghệ không có đường quay lại? Để trả lời những câu hỏi này, chúng ta không chỉ cần những đột phá về mặt kỹ thuật mà còn cần sự hiểu biết sâu sắc về chính ý tưởng về một hệ thống thông minh, các giá trị và nguyên tắc của nó, vị trí của nó trong xã hội của chúng ta và vị trí của chúng ta trong thế giới của nó.


Dù có chuyện gì xảy ra, AGI cũng có thể là một trong những thử thách lớn nhất trong lịch sử loài người. Trách nhiệm về kết quả của nó thuộc về tất cả chúng ta: các nhà khoa học, nhà hoạch định chính sách, nhà triết học và mọi công dân đóng vai trò trong việc công nhận và hỗ trợ các nỗ lực vì một tương lai an toàn.