“The Letter” chỉ là sự khởi đầu. Chào mừng đến với chương trình chính trị AI. Lấy một ít bỏng ngô, hoặc tốt hơn nữa, hãy vào võ đài.
“Tôi đã nhận được một lá thư từ Viện Cuộc sống Tương lai
của chính phủvào ngày hôm trướcTôi mở ra và đọc nó, nó nói rằng họ là những kẻ tồi tệ
Họ muốn tôi cho quân đội của họ hoặc bất cứ điều gì
Hình ảnh tôi đưa ra một chết tiệt, tôi nói không bao giờ
Đây là một vùng đất không bao giờ chết tiệt
Về một người anh như tôi và chính tôi vì họ chưa bao giờ làm thế
Tôi đã không ở cùng với nó, nhưng ngay phút đó nó đã xảy ra với tôi
Những kẻ hút máu có
quyềnlực ”
Lời bài hát Black Steel In The Hour Of Chaos - Public Enemy
Mối liên hệ giữa Public Enemy và trạng thái của AI ngày nay có thể không rõ ràng ngay lập tức. Nhưng nếu bạn hoán đổi “chính phủ” cho “Viện tương lai của cuộc sống” và “quyền lực” cho “quyền lực”, thì những lời bài hát đó có thể là một phép ẩn dụ khá hay cho những gì đang xảy ra trong AI ngày nay.
“Bức thư”, như nó được biết đến trên Twitter, là một Bức thư ngỏ do Viện Tương lai Sự sống (FLI) biên soạn và được ký bởi một số lượng người ngày càng tăng. Nó kêu gọi tạm dừng đào tạo các mô hình AI lớn hơn GPT-4 để “phát triển và triển khai một bộ giao thức an toàn dùng chung cho thiết kế và phát triển AI tiên tiến”.
Bức thư của FLI đề cập rằng “Việc nghiên cứu và phát triển AI nên được tập trung lại vào việc làm cho các hệ thống mạnh mẽ, hiện đại ngày nay trở nên chính xác, an toàn, dễ hiểu, minh bạch, mạnh mẽ, phù hợp, đáng tin cậy và trung thành hơn.” Một tuyên bố mà ít người sẽ không đồng ý, kể cả những người đưa ra những lo ngại chính đáng về “The Letter”.
Tôi cũng đã ký “The Letter”. Khi tôi làm, nó có ít hơn 1.000 người ký. Ngày nay, nó có khoảng 50.000 theo Câu hỏi thường gặp của FLI . Tôi đã không ký vì tôi hoàn toàn đồng ý với FLI hoặc khuôn khổ của nó – hoàn toàn không phải như vậy. Tôi cũng e ngại về tuyên bố trên, và tôi cực kỳ ý thức và chỉ trích cái gọi là sự cường điệu về AI.
Tôi đã ký “The Letter” với hy vọng rằng nó có thể thu hút sự chú ý và khiến một cuộc trò chuyện rất cần thiết được diễn ra, và nó đã thành công. Lần duy nhất tôi nhớ lại phản ứng dữ dội về AI đã thúc đẩy cuộc tranh luận sôi nổi như vậy là vào năm 2020. Đó là thời điểm Google sa thải một số nhà nghiên cứu, những người nêu lên mối lo ngại về việc thực hành xây dựng các Mô hình ngôn ngữ lớn AI ngày càng lớn hơn trong một bài báo có tên “ Vẹt ngẫu nhiên”.
Tất nhiên, 2,5 năm là cả đời trong AI. Đó là tiền ChatGPT, trước khi AI xâm nhập vào thị trường . Nhưng điều đó không nhất thiết có nghĩa là các vấn đề ngày nay đã được hiểu rõ rộng rãi, ngay cả khi chúng đang được tranh luận sôi nổi.
Một dòng chỉ trích đầu tiên chống lại “Bức thư” trích dẫn nguồn gốc của nó và chương trình nghị sự của những người đã soạn thảo và ký nó - và đúng như vậy. Thật vậy, Viện Tương lai của Cuộc sống là một tổ chức Vị tha hiệu quả, Người theo chủ nghĩa lâu dài .
Tóm lại, điều đó có nghĩa là những người quan tâm đến một tương lai không tưởng về công nghệ giả định hơn là những vấn đề thực sự mà việc sử dụng công nghệ đang gây ra ngày nay. Mặc dù Câu hỏi thường gặp của FLI cũng cố gắng giải quyết các tác hại hiện tại, nhưng bằng cách nào đó, Peter Thiel và Elon Musk loại trích dẫn “sự tập trung quyền lực kinh tế” như một mối quan tâm nghe có vẻ không thuyết phục lắm.
Triết gia và nhà sử học Emile P. Torres, người trước đây là người trong cuộc của Chủ nghĩa kỳ hạn đã đặt ra từ viết tắt TESCREAL để mô tả Chủ nghĩa kỳ hạn và hệ tư tưởng của nó. Tuyên bố rằng chúng ta cần lên sao Hỏa để cứu nhân loại khỏi sự hủy diệt của Trái đất hoặc chúng ta cần AI siêu tiên tiến để giải quyết các vấn đề của mình nói lên rất nhiều điều về suy nghĩ của TESCREAL.
Những người này không thực sự quan tâm đến lợi ích tốt nhất của bạn và tôi chắc chắn đã không thấy mình ký vào một lá thư do FLI soạn thảo và đồng ký bởi Elon Musk. Điều đó nói rằng, tuy nhiên, thật khó để không. Khó có thể bỏ qua số tiền tài trợ, tầm ảnh hưởng và sự công khai mà các loại Elon Musk thu được, ngay cả đối với những người chỉ trích họ.
Trường hợp điển hình: DAIR , Viện nghiên cứu AI phân tán, được thành lập bởi Nhà đạo đức học AI Timnit Gebru. Gebru là một trong những người đã bị Google sa thải vào năm 2020. DAIR được thành lập vào năm 2021 để hỗ trợ loại công việc mà Gebru muốn thực hiện .
DAIR “bắt nguồn từ niềm tin rằng AI không phải là không thể tránh khỏi, những tác hại của nó có thể ngăn ngừa được và khi quá trình sản xuất và triển khai AI bao gồm các quan điểm đa dạng và các quy trình có chủ ý thì nó có thể mang lại lợi ích”. Điều đó nghe có vẻ đáng khen ngợi.
DAIR tuyển dụng một số nhà nghiên cứu để thực hiện sứ mệnh của mình và đã huy động được 3,7 triệu đô la từ Quỹ Ford, Quỹ MacArthur, Trung tâm Kapor, Quỹ Xã hội Mở của George Soros và Quỹ Rockefeller. Nghiên cứu phải được tài trợ bằng cách nào đó. Nhưng có lẽ cũng đáng suy ngẫm về nguồn tài trợ này.
Gebru nhận thức được câu hỏi hóc búa và đã nói về “Các tỷ phú Công nghệ lớn hiện cũng đang làm từ thiện lớn”. Có lẽ, những người sáng lập DAIR tin rằng việc sử dụng các quỹ này cho các mục tiêu mà họ thấy đáng khen ngợi có thể quan trọng hơn nguồn gốc của các quỹ. Nhưng dòng suy nghĩ này có nên được dành riêng cho DAIR?
DAIR đã xuất bản “Tuyên bố từ các tác giả được liệt kê của Stochastic Parrots về bức thư “tạm dừng AI””. Trong tuyên bố rất chu đáo này, các tác giả của nó viết rằng họ “rất thất vọng khi thấy số lượng chuyên gia máy tính đã ký vào bức thư này và sự đưa tin tích cực của phương tiện truyền thông mà nó đã nhận được”.
Mặc dù tôi biết và đã làm việc với một số chuyên gia đã ký vào lá thư của FLI, nhưng tôi không thể nói thay cho bất kỳ ai ngoài bản thân mình. Nhưng tôi nghĩ sẽ công bằng nếu cho họ lợi ích của sự nghi ngờ.
Một số người như Gary Marcus đã tuyên bố rằng mặc dù họ không hoàn toàn tán thành “Bức thư”, nhưng họ đã ký để đạt được một mục tiêu cụ thể mà họ thấy rất quan trọng. Nghe có vẻ quen?
Mọi người đã đặt câu hỏi về động cơ của những người ký kết , cho rằng một số người có thể chỉ đơn giản muốn ngăn chặn những người hiện đang dẫn đầu AI để bắt kịp. Ví dụ, Elon Musk đang thành lập một công ty AI mới có tên là x.ai. Và OpenAI giờ đây nói rằng có thể các mô hình AI ngày càng lớn hơn không phải là hướng đi .
Nhưng không phải ai ký cũng vì tư lợi. Và những tác hại do việc triển khai các hệ thống AI ngày nay là có thật.
Khai thác công nhân và đánh cắp dữ liệu lớn ; tái sản xuất các hệ thống áp bức và mối nguy hiểm đối với hệ sinh thái thông tin của chúng ta ; sự tập trung quyền lực . Những tác hại mà DAIR nêu ra đều rất thực tế.
Các quyền lực đang tích cực thúc đẩy hoặc kích hoạt chúng một cách vô thức thông qua AI. Xây dựng các liên minh để nêu vấn đề, thu hút nhận thức và làm suy yếu cuộc diễu hành của Big Tech là điều thực tế nên làm.
Nếu điều đó nghe giống như chính trị thì đó là bởi vì nó là như vậy, như mọi người đã lưu ý . Điều đó có nghĩa là nó nói về “ý kiến, nỗi sợ hãi, giá trị, thái độ, niềm tin, quan điểm, nguồn lực, động cơ và sự kỳ lạ thẳng thắn” – cộng với tiền bạc và quyền lực.
Đó là những gì nó luôn luôn là về. Gebru không xa lạ gì với trò chơi này, ông đã cố gắng thay đổi mọi thứ từ bên trong Google trước khi bắt đầu chơi trò chơi ảnh hưởng từ bên ngoài.
Việc FLI kêu gọi lệnh cấm AI không phải là lời kêu gọi đầu tiên, nhưng đó là lời kêu gọi có sức hút. Bị gọi là thực dụng để ký, thậm chí bị phê bình. Đó là những gì Marcus đã làm, mặc dù đã đề xuất một lệnh cấm trước FLI . Cái đó không thu hút được những người ký tên kiểu Elon Musk hoặc “sự đưa tin tích cực trên phương tiện truyền thông” mà DAIR đã thấy cho lá thư của FLI.
Đúng là đã có một số chuyện đó. Một số cửa hàng luôn háo hức chơi lá bài giật gân, những cửa hàng khác lại công khai lấy cảm hứng từ TESCREAL . Nhưng điều đó không có nghĩa là tất cả các tin tức đều tích cực. Trong mọi trường hợp, ảnh hưởng của phương tiện truyền thông là một phần của trò chơi.
Nhưng còn nghiên cứu thì sao? Cả những nhà lãnh đạo DAIR và AI như Marcus, Andrew Ng và Yann LeCun đều đề cập đến nghiên cứu. Ng và LeCun tin rằng nghiên cứu là một phần của giải pháp mang lại “những ý tưởng mới sẽ làm cho các hệ thống [AI] trở nên dễ kiểm soát hơn nhiều”.
Điều này là hình ảnh thu nhỏ của một niềm tin được tổ chức rộng rãi, vốn dường như tập trung vào các vấn đề chủ yếu mang tính chất kỹ thuật. Nếu bạn giữ niềm tin này, thì bạn cũng nên tin rằng điều cần thiết để khắc phục vấn đề là nghiên cứu thêm để đưa ra giải pháp.
Tuy nhiên, như sự cố “Con vẹt ngẫu nhiên” cho thấy, điều này chưa bao giờ là thiếu giải pháp. Đó là nhiều hơn về chương trình nghị sự, chính trị, tiền bạc và quyền lực.
Marcus lưu ý rằng điều khiến anh ấy sợ nhất về AI là con người. Ông lập luận để xây dựng cầu nối và không tập trung vào một vấn đề duy nhất. Theo tinh thần này, điều quan trọng là không chỉ tập trung vào việc xây dựng AI tốt hơn thông qua nghiên cứu. Đảm bảo rằng mọi người có quyền truy cập vào nó là rất quan trọng.
Cuối cùng, việc có quyền truy cập vào một trình duyệt tốt hơn Internet Explorer quan trọng hơn bản thân trình duyệt đó. Nếu điều đó đúng với cuộc chiến trình duyệt những năm 90, thì nó cũng có thể cho chúng ta biết điều gì đó về AI ngày nay. Đó là ý chính của lập luận mà Matt Stoller đang đưa ra .
Stoller, một người kiên quyết chống độc quyền, coi sức hấp dẫn của cả Google và Microsoft đối với AI là hai mặt của cùng một đồng tiền. Stoller cho rằng tuyên bố của Google rằng AI gây ra mối đe dọa đối với sự thống trị của nó trong lĩnh vực tìm kiếm là một nỗ lực nhằm đánh lạc hướng cuộc điều tra chống độc quyền đối với Google.
Stoller tuyên bố "chúng tôi, với tư cách là một xã hội dân chủ, phải nói với các nhà lập pháp của mình rằng chúng tôi không muốn kiến thức khoa học tuyệt vời này do một số ít người kiểm soát". Anh ấy có lý khi kêu gọi cảnh giác với Big Tech.
Một số nhà nghiên cứu và doanh nhân AI đang nỗ lực tạo ra các bộ dữ liệu và mô hình mở cho mọi người sử dụng. Điều đó thật tuyệt, nhưng chúng ta cần ghi nhớ phép ẩn dụ của trình duyệt. Bộ dữ liệu và mô hình cho phép các nhà phát triển xây dựng mọi thứ. Nhưng nếu những thứ đó không có chỗ trên kệ vì Big Tech đã đóng cửa chúng, thì chúng sẽ không mang lại nhiều lợi ích.
Trở thành một chuyên gia về AI sẽ giúp ích. Nhưng biết những gì bạn đang nói không nhất thiết có nghĩa là bạn sẽ được lắng nghe, như trường hợp của Melanie Mitchell và cuộc trao đổi của cô ấy với Thượng nghị sĩ Chris Murphy cho thấy.
Mitchell đã làm rất tốt trong việc lật tẩy sự cường điệu về AI . Xây dựng liên minh với những người có thể làm điều gì đó về AI ..không quá nhiều. Đôi khi can thiệp là điều nên làm, và để đạt được điều đó, cần có liên minh.
Chuyên gia AI hay không, có một vài điều rất quan trọng mà mỗi chúng ta có thể làm.
Đầu tiên, hãy hiểu bản chất của sức mạnh độc quyền mà các ChatGPT trên thế giới đang phát huy. Chúng ta càng sử dụng các hệ thống Công nghệ lớn đó, chúng ta càng góp phần làm cho chúng tốt hơn và chúng ta càng cung cấp nhiều năng lượng cho các Hệ thống công nghệ lớn. Lần này chúng ta đừng rơi vào nó . Hãy sử dụng các lựa chọn thay thế, trong đó ngày càng có nhiều.
Thứ hai, tham gia vào chính trị AI. Gửi thư cho thượng nghị sĩ, thu thập chữ ký, diễu hành trên đường phố hoặc tổ chức Không gian Twitter để thảo luận về một cơ quan quốc tế về AI – bất cứ điều gì hiệu quả. Nhưng hãy làm điều gì đó, hoặc ít nhất, nhận thức được những gì người khác đang làm. Tiếp tục công việc kinh doanh như bình thường với tốc độ chóng mặt của AI là một công thức dẫn đến thảm họa.
Chúng ta đang ở trong một tình huống mà quy mô quyền lực phần lớn được điều chỉnh theo hướng có lợi cho Big Tech. Không làm gì có nghĩa là giữ thái độ trung lập trong một tình huống bất công, tức là chọn đứng về phía kẻ áp bức. Chúng ta đang ở trong một tình huống mà quy mô quyền lực phần lớn được điều chỉnh theo hướng có lợi cho Big Tech.
Một phiên bản của phần này xuất hiện ở đây .