paint-brush
Hơn 2000 nhà nghiên cứu dự đoán tương lai của AItừ tác giả@adrien-book
669 lượt đọc
669 lượt đọc

Hơn 2000 nhà nghiên cứu dự đoán tương lai của AI

từ tác giả Adrien Book4m2024/04/17
Read on Terminal Reader

dài quá đọc không nổi

Một cuộc khảo sát gần đây của AI Impacts, phối hợp với các trường đại học, nêu bật những dự đoán của chuyên gia về các cột mốc quan trọng trong tương lai và những rủi ro tiềm ẩn của AI. Các chuyên gia dự đoán những tiến bộ đáng kể của AI vào năm 2028 nhưng bày tỏ lo ngại về khả năng diễn giải của AI, tác động xã hội và rủi ro tồn tại. Những lời kêu gọi tăng cường nghiên cứu về an toàn AI, các quy định toàn cầu và phát triển AI có trách nhiệm được nhấn mạnh nhằm định hướng các cơ hội và thách thức của AI cho một tương lai tốt đẹp hơn.
featured image - Hơn 2000 nhà nghiên cứu dự đoán tương lai của AI
Adrien Book HackerNoon profile picture
0-item
1-item


Tốc độ phát triển Trí tuệ nhân tạo đã đạt đến đỉnh cao tự nhiên. Các công cụ như GPT-4 , Gemini , Claude , v.v. và những người tạo ra chúng đều tuyên bố sẽ sớm có thể thay đổi mọi khía cạnh của xã hội, từ chăm sóc sức khỏe và giáo dục đến tài chính và giải trí. Sự phát triển nhanh chóng này đặt ra những câu hỏi quan trọng hơn bao giờ hết về quỹ đạo của AI: vâng, những lợi ích của công nghệ, nhưng cũng ( chủ yếu là! ) những rủi ro tiềm ẩn mà nó gây ra cho tất cả chúng ta.


Trong những trường hợp này, việc lắng nghe, thấu hiểu và chú ý đến quan điểm của các chuyên gia trở nên quan trọng. Một cuộc khảo sát gần đây có tiêu đề “ Hàng nghìn tác giả AI về tương lai của AI thể hiện nỗ lực sâu rộng nhất nhằm đánh giá ý kiến ​​của các chuyên gia như vậy về tiềm năng của AI. Được thực hiện bởi Katja Grace và nhóm của cô tại AI Impacts , với sự cộng tác của các nhà nghiên cứu từ Đại học Bonn và Đại học Oxford, nghiên cứu đã khảo sát 2.778 nhà nghiên cứu, tìm kiếm những dự đoán của họ về tiến trình AI và các tác động xã hội của nó. Tất cả những người được liên hệ trước đó đều đã viết các bài báo được bình duyệt ở các địa điểm AI hàng đầu.


Những bước tiến quan trọng trong tương lai của nghiên cứu AI

Nói tóm lại, cuộc khảo sát nêu bật sự phức tạp và bề rộng của những kỳ vọng cũng như mối quan tâm của các nhà nghiên cứu AI về tương lai của công nghệ… và các tác động xã hội của nó.


  • Các chuyên gia dự đoán rằng AI sẽ đạt được những cột mốc quan trọng vào đầu năm 2028: “ chẳng hạn như mã hóa toàn bộ trang web xử lý thanh toán từ đầu và viết những bài hát mới không thể phân biệt được với bài thật của các nghệ sĩ đình đám như Taylor Swift ”.


  • Phần lớn những người tham gia cũng tin rằng các hệ thống AI tốt nhất có thể sẽ đạt được những khả năng rất đáng chú ý trong vòng hai thập kỷ tới. Điều này bao gồm việc tìm ra “ những cách bất ngờ để đạt được mục tiêu ” (82,3%), nói chuyện “ như một chuyên gia về con người trong hầu hết các chủ đề ” (81,4%) và thường xuyên cư xử “ theo những cách gây ngạc nhiên cho con người ” (69,1%)​​.


  • Hơn nữa, sự đồng thuận cho thấy có 50% khả năng AI “ vượt trội ” con người trong mọi nhiệm vụ vào năm 2047, một dự báo đã tiến triển thêm 13 năm so với dự báo được đưa ra một năm trước đó .


  • Cơ hội tất cả các ngành nghề của con người trở nên “ tự động hóa hoàn toàn ” hiện được dự báo sẽ đạt 10% vào năm 2037 và 50% vào năm 2116 (so với 2164 trong cuộc khảo sát năm 2022 ).


Khi nào AI mới có thể “làm” được những nhiệm vụ sau đây?


  • Cuộc khảo sát cho thấy sự hoài nghi về khả năng diễn giải của các quyết định AI, với chỉ 20% số người được hỏi cho rằng có khả năng người dùng sẽ có thể “ hiểu được lý do thực sự đằng sau các lựa chọn của hệ thống AI ” vào năm 2028. AI (khét tiếng) là một hộp đen và mối lo ngại này phản ánh những thách thức thực sự đang diễn ra trong tính minh bạch của AI. Điều này đặc biệt phù hợp trong các ứng dụng quan trọng (tài chính, chăm sóc sức khỏe…), trong đó việc hiểu rõ quá trình ra quyết định của AI là rất quan trọng để có được sự tin cậy và trách nhiệm giải trình.


  • Nghiên cứu cũng nêu bật những lo ngại “ đáng kể ” về tác động tiêu cực tiềm ẩn của AI. Không có gì đáng ngạc nhiên khi việc truyền bá thông tin sai lệch, thao túng dư luận và việc sử dụng AI một cách độc đoán tạo ra mối lo ngại đáng kể. Ngày nay, những lời kêu gọi về các biện pháp chủ động để giảm thiểu những mối nguy hiểm này ngày càng ít và đó là một vấn đề .


Số lượng các kịch bản tiềm ẩn đáng lo ngại, được sắp xếp từ mức độ quan tâm nhiều nhất đến ít nghiêm trọng nhất


  • Có nhiều ý kiến ​​​​khác nhau về tác động lâu dài của trí thông minh máy cấp cao, với một phần đáng chú ý số người được hỏi cho rằng xác suất khác 0 dẫn đến cả kết quả cực kỳ tốt và cực kỳ xấu, bao gồm cả sự tuyệt chủng của loài người. Đó là nhà khoa học vì “ chúng tôi không biết chuyện gì sẽ xảy ra tiếp theo ”. Nhưng… từ 38% đến 51% số người được hỏi cho rằng có ít nhất 10% cơ hội phát triển AI tiên tiến dẫn đến kết quả tồi tệ như sự tuyệt chủng của loài người , đây có vẻ là điều chúng ta nên để mắt tới.


  • Cuối cùng, có sự bất đồng về việc liệu tiến bộ AI nhanh hơn hay chậm hơn sẽ tốt hơn cho tương lai của nhân loại. Tuy nhiên, đa số người được hỏi ủng hộ việc ưu tiên nghiên cứu an toàn AI hơn hiện tại, phản ánh sự đồng thuận ngày càng tăng về tầm quan trọng của việc giải quyết các rủi ro hiện hữu của AI và đảm bảo sự phát triển và triển khai an toàn của nó.


Chúng ta làm gì với thông tin đó?

Con đường phía trước khá rõ ràng: các chính phủ trên toàn thế giới cần tăng cường tài trợ cho nghiên cứu an toàn AI và phát triển các cơ chế mạnh mẽ để đảm bảo hệ thống AI phù hợp với các giá trị và lợi ích của con người hiện tại và tương lai.


Chính phủ Anh gần đây đã công bố tài trợ hơn 50 triệu bảng Anh cho một loạt dự án liên quan đến trí tuệ nhân tạo , bao gồm 30 triệu bảng Anh để tạo ra một hệ sinh thái AI có trách nhiệm mới. Ý tưởng là xây dựng các công cụ và chương trình đảm bảo các ứng dụng có trách nhiệm và đáng tin cậy về khả năng AI.


Trong khi đó, Chính quyền Biden-Harris đã công bố vào đầu năm 2024 về việc thành lập Hiệp hội Viện An toàn AI Hoa Kỳ (AISIC), quy tụ hơn 200 bên liên quan đến AI, bao gồm các nhà lãnh đạo ngành, học viện và xã hội dân sự. Liên minh này nhằm mục đích hỗ trợ phát triển và triển khai AI an toàn và đáng tin cậy bằng cách phát triển các hướng dẫn về đội đỏ, đánh giá năng lực, quản lý rủi ro và các biện pháp an toàn quan trọng khác.


Đây là một sự khởi đầu, nhưng tất cả đều mang tính quốc gia.


Các chính phủ ngày nay không thể chỉ nhìn vào sân sau của mình. Chúng ta cũng cần thực hiện các quy định QUỐC TẾ để hướng dẫn việc phát triển và triển khai công nghệ AI một cách có đạo đức, đảm bảo tính minh bạch và trách nhiệm giải trình. Điều này bao gồm việc thúc đẩy sự hợp tác liên ngành và QUỐC TẾ giữa các nhà nghiên cứu, nhà đạo đức và nhà hoạch định chính sách AI. Tôi sẽ cảm thấy an toàn hơn trên thế giới khi tôi thấy những điều sau đây được triển khai để củng cố và cải thiện các khuôn khổ Nhân quyền hiện có:


  • Khung an toàn AI toàn cầu
  • Hội nghị thượng đỉnh an toàn AI quốc tế
  • Quỹ nghiên cứu an toàn và đạo đức AI toàn cầu.


Quá sớm để đưa ra kết luận

Có lẽ còn hơi sớm để trở thành nạn nhân của chủ nghĩa tận thế. Mặc dù cuộc khảo sát cung cấp những hiểu biết sâu sắc có giá trị nhưng nó cũng có những hạn chế, bao gồm những thành kiến ​​tiềm ẩn do việc tự lựa chọn của những người tham gia và thách thức ( rõ ràng! ) trong việc dự báo chính xác những tiến bộ công nghệ. Nghiên cứu sâu hơn nên nhằm mục đích mở rộng sự đa dạng của các quan điểm và khám phá ý nghĩa của việc phát triển AI trong các lĩnh vực cụ thể.


Cuối cùng, bất chấp tính chính xác của những dự đoán được đưa ra, chúng ta cần nhiều hơn lời nói. AI là nguồn gốc của cả những cơ hội chưa từng có và những thách thức đáng kể. Thông qua đối thoại cởi mở giữa các nhà nghiên cứu, nhà hoạch định chính sách và công chúng, chúng ta phải tạo ra các quy tắc để bảo vệ chúng ta khỏi mối nguy hiểm của AI và hướng chúng ta tới một tương lai tốt đẹp hơn cho tất cả mọi người .


Thế giới rất lớn, còn chúng ta thì rất nhỏ. Chúc may mắn ở ngoài đó.