paint-brush
Khi chúng ta học cách sử dụng AI, nó đang học cách sử dụng chúng tatừ tác giả@thesociable
769 lượt đọc
769 lượt đọc

Khi chúng ta học cách sử dụng AI, nó đang học cách sử dụng chúng ta

từ tác giả The Sociable5m2023/07/29
Read on Terminal Reader

dài quá đọc không nổi

Nhà sử học Yuval Noah Harari nói với Hội nghị thượng đỉnh toàn cầu về sự tốt đẹp của AI của Liên hợp quốc rằng “trong khi chúng ta đang học cách sử dụng AI, thì nó cũng đang học cách sử dụng chúng ta” Harari cho rằng AI nên tiếp tục được phát triển, nhưng không nên triển khai nó mà không kiểm tra an toàn và quy định. Nhà sử học ví sự phát triển của AI giống như việc có một loại virus trong phòng thí nghiệm, ông nói rằng phát triển nó thì được, nhưng không được triển khai nó ra công chúng.
featured image - Khi chúng ta học cách sử dụng AI, nó đang học cách sử dụng chúng ta
The Sociable HackerNoon profile picture


Nhà sử học Yuval Noah Harari nói với Hội nghị thượng đỉnh toàn cầu về những điều tốt đẹp về trí tuệ nhân tạo của Liên hợp quốc rằng “trong khi chúng ta đang học cách sử dụng AI, thì nó cũng đang học cách sử dụng chúng ta” và rằng chúng ta nên giảm tốc độ triển khai chứ không phải phát triển.


Phát biểu hôm thứ Năm tại phiên họp Hội nghị thượng đỉnh toàn cầu về AI cho sự tốt đẹp của Liên minh Viễn thông Quốc tế (ITU) của Liên hợp quốc về “ Các lan can cần thiết cho AI an toàn và có trách nhiệm ,” Harari cho rằng AI nên tiếp tục được phát triển, nhưng không nên triển khai nó mà không có kiểm tra an toàn và các quy định.


“Trong khi chúng ta đang học cách sử dụng AI, thì nó đang học cách sử dụng chúng ta”

Yuval Noah Harari, Hội nghị thượng đỉnh toàn cầu về trí tuệ nhân tạo vì những điều tốt đẹp, 2023


“Trong khi chúng ta đang học cách sử dụng AI , thì nó cũng đang học cách sử dụng chúng ta,” Harari nói, đồng thời cho biết thêm, “Rất khó để ngăn chặn sự phát triển [của AI] vì chúng ta có tâm lý chạy đua vũ trang này. Mọi người nhận thức được - một số trong số họ - về những mối nguy hiểm, nhưng họ không muốn bị bỏ lại phía sau.


Nhưng điều thực sự quan trọng, và đây là tin tốt, điều quan trọng là làm chậm quá trình triển khai — chứ không phải phát triển ,” ông nói thêm.


Nhà sử học ví sự phát triển của AI giống như việc có một loại virus trong phòng thí nghiệm, ông nói rằng phát triển nó thì được, nhưng không được triển khai nó ra công chúng.


“Giống như việc bạn có loại virus rất nguy hiểm này trong phòng thí nghiệm của mình, nhưng bạn không tiết lộ nó ra công chúng; Tốt rồi"

Yuval Noah Harari, Hội nghị thượng đỉnh toàn cầu về trí tuệ nhân tạo vì những điều tốt đẹp, 2023


“Bạn có thể có một công cụ AI cực kỳ tinh vi trong phòng thí nghiệm của mình miễn là bạn không triển khai nó ra cộng đồng. Điều này ít nguy hiểm hơn,” Harari nói.


“Bạn biết đấy, nó giống như việc bạn có loại virus rất nguy hiểm này trong phòng thí nghiệm của mình, nhưng bạn không đưa nó ra công chúng; Tốt rồi. Có một giới hạn an toàn ở đó.”


Giống như các công ty dược phẩm và nhà sản xuất ô tô phải trải qua các cuộc kiểm tra an toàn, Harari lập luận rằng điều tương tự cũng nên áp dụng cho AI.


“Giờ đây, lần đầu tiên trong lịch sử có thể tạo ra hàng tỷ người giả […] Nếu bạn không thể biết ai là người thật và ai là người giả, lòng tin sẽ sụp đổ, và cùng với đó là xã hội tự do ”

Yuval Noah Harari, Hội nghị thượng đỉnh toàn cầu về trí tuệ nhân tạo vì những điều tốt đẹp, 2023


Về chủ đề deepfakes và bot do AI tạo ra, Harari cho biết, “ Giờ đây, lần đầu tiên trong lịch sử có thể tạo ra những người giả mạo — để tạo ra hàng tỷ người giả mạo — mà bạn tương tác với ai đó trực tuyến mà bạn không biết. đó là một con người thực sự hoặc một bot.


“Có lẽ trong một năm nữa, cuộc trò chuyện này mà chúng ta đang có bây giờ, gần như không thể chắc chắn liệu bạn đang nói chuyện với một kẻ giả mạo sâu sắc hay với một con người thực sự.


“Nếu điều này được phép xảy ra, nó sẽ gây ra cho xã hội những gì mà tiền giả đe dọa sẽ gây ra cho hệ thống tài chính.”


“Chúng ta nên hiểu rõ hơn về tác động tiềm ẩn của [AI] đối với xã hội, văn hóa, tâm lý và nền kinh tế của thế giới trước khi chúng ta triển khai nó vào phạm vi công cộng”

Yuval Noah Harari, Hội nghị thượng đỉnh toàn cầu về trí tuệ nhân tạo vì những điều tốt đẹp, 2023


Nhà sử học nói thêm rằng “Nếu bạn không thể biết ai là người thật và ai là người giả, lòng tin sẽ sụp đổ, và kéo theo đó là xã hội tự do. Có thể các chế độ độc tài sẽ có thể quản lý bằng cách nào đó, nhưng các nền dân chủ thì không.”


Harari giải thích rằng việc tạo ra những người giả mạo vẫn ổn miễn là họ được dán nhãn như vậy và không được coi là người thật - “Tôi cần biết đó có phải là người thật hay không,” anh ấy nói.


Liên minh Viễn thông Quốc tế là cơ quan chuyên môn của Liên hợp quốc về công nghệ thông tin và truyền thông – ICT.



“Chúng tôi không còn là những linh hồn bí ẩn nữa; bây giờ chúng ta là những con vật có thể hack được

Yuval Noah harari, Diễn đàn Kinh tế Thế giới, 2020



Harari đã nhiều lần phát biểu tại các cuộc họp thường niên của Diễn đàn Kinh tế Thế giới (WEF) ở Davos, nơi ông tuyên bố, “Con người chúng ta nên làm quen với ý tưởng rằng chúng ta không còn là những linh hồn bí ẩn nữa; bây giờ chúng ta là những con vật có thể hack được.


Phát biểu tại WEF năm 2020 , Harari cho biết: “Để hack con người, bạn cần rất nhiều kiến thức sinh học, nhiều sức mạnh tính toán và đặc biệt là rất nhiều dữ liệu.


“Nếu bạn có đủ dữ liệu về tôi, đủ năng lực tính toán và kiến thức sinh học, bạn có thể hack cơ thể, bộ não, cuộc sống của tôi. Bạn có thể đạt đến điểm mà bạn hiểu tôi hơn chính tôi.”


Với sức mạnh tấn công con người này, Harari nói, “[nó] tất nhiên có thể được sử dụng cho những mục đích tốt như cung cấp dịch vụ chăm sóc sức khỏe tốt hơn nhiều, nhưng nếu sức mạnh này rơi vào tay của một Stalin thế kỷ 21, thì kết quả sẽ là chế độ toàn trị tồi tệ nhất. trong lịch sử nhân loại, và chúng tôi đã có một số ứng viên cho công việc của Stalin thế kỷ 21.”


“Chúng ta không nên điều chỉnh AI cho đến khi chúng ta thấy một số tác hại có ý nghĩa đang thực sự xảy ra — không phải là những viễn cảnh tưởng tượng”

Michael Schwarz, Hội nghị thượng đỉnh về tăng trưởng của WEF, 2023


Phát biểu tại Hội nghị thượng đỉnh về tăng trưởng của WEF năm 2023 trong một hội thảo về “ Điểm nóng tăng trưởng: Khai thác cuộc cách mạng AI sáng tạo ”, Michael Schwarz của Microsoft lập luận rằng khi nói đến AI, tốt nhất là không nên điều chỉnh nó cho đến khi có điều gì đó tồi tệ xảy ra, để không triệt tiêu những lợi ích tiềm năng lớn hơn.


Tôi khá tự tin rằng có, AI sẽ được sử dụng bởi những kẻ xấu; và vâng, nó sẽ gây ra thiệt hại thực sự; và vâng, chúng tôi phải rất cẩn thận và rất cảnh giác ,” Schwarz nói với hội thảo WEF.


Khi được hỏi về việc điều chỉnh AI tổng quát, nhà kinh tế trưởng của Microsoft giải thích:

“Triết lý của chúng ta về việc điều chỉnh AI nên là gì? Rõ ràng, chúng ta phải điều chỉnh nó, và tôi nghĩ triết lý của tôi ở đó rất đơn giản.


Chúng ta nên điều chỉnh AI theo cách mà chúng ta không vứt bỏ em bé cùng với nước tắm .

“Vì vậy, tôi nghĩ rằng quy định không nên dựa trên các nguyên tắc trừu tượng.


“Là một nhà kinh tế học, tôi thích tính hiệu quả, vì vậy, trước tiên, chúng ta không nên điều chỉnh AI cho đến khi chúng ta thấy một số tác hại có ý nghĩa đang thực sự xảy ra — không phải các kịch bản tưởng tượng .”


Vào ngày 23 tháng 1 năm 2023, Microsoft đã mở rộng quan hệ đối tác với OpenAI — những người tạo ra ChatGPT — đầu tư thêm 10 tỷ đô la ngoài “1 tỷ đô la Microsoft đã rót vào OpenAI vào năm 2019 và một vòng khác vào năm 2021,” theo Bloomberg .



Bài viết này ban đầu được xuất bản bởi Tim Hinchliffe trên The Sociable.


L O A D I N G
. . . comments & more!

About Author

The Sociable HackerNoon profile picture
The Sociable@thesociable
The Sociable is a technology news publication that picks apart how technology transforms society and vice versa.

chuyên mục

BÀI VIẾT NÀY CŨNG CÓ MẶT TẠI...