Nếu bạn đang theo dõi tin tức — rất gần đây — về Trí tuệ nhân tạo Sáng tạo, bạn có thể nhận thấy một khuôn mẫu: hầu hết mọi người đều công khai và lớn tiếng cảnh báo chúng ta về những nguy cơ tiềm ẩn của AI là đàn ông (da trắng).
Tại sao điều này là trường hợp? Có phải đàn ông hiểu biết hoặc quan tâm đến AI hơn phụ nữ? Phụ nữ quá bận rộn hay quá lạc quan để viết về AI?
Hay đơn giản là vì các lãnh chúa công nghệ của chúng ta sợ phải chịu đựng các thuật toán như phụ nữ và dân tộc thiểu số trong nhiều năm?
“ Phức hợp Frankenstein ” là một thuật ngữ do Isaac Asimov đặt ra ( dựa trên tác phẩm của một người phụ nữ … ) để mô tả nỗi sợ hãi khi tạo ra thứ gì đó có thể chống lại người tạo ra nó.
Do sự bất bình đẳng trong các lĩnh vực STEM, nhiều người — nhưng không phải tất cả — những tiến bộ về AI đã được nam giới dẫn đầu.
Theo báo cáo năm 2018 của UNESCO, chỉ có 28% nhà nghiên cứu trong các lĩnh vực STEM là phụ nữ . Và chỉ 12% nhà nghiên cứu AI là phụ nữ , theo một nghiên cứu năm 2019 của Element AI.
Có lẽ tất cả các nhà nghiên cứu AI đang phóng chiếu sự bất an và lo lắng của chính họ vào những sáng tạo của họ, tưởng tượng ra những viễn cảnh mà AI có thể nổi loạn, làm hại hoặc thay thế chúng.
Nhưng chúng tôi nghe nhiều hơn từ những người đàn ông bởi vì họ chỉ là những người trong số họ trong lĩnh vực này. Đó là một vấn đề theo đúng nghĩa của nó… và không giải thích đầy đủ sự lo lắng khá đột ngột, vì AI đã tồn tại hàng thập kỷ .
Một giả thuyết khác là đàn ông đặc biệt mắc phải một số loại “Hội chứng gương đen”.
Chúng tôi có thể đã tạo ra rất nhiều kịch bản tận thế về tương lai của công nghệ và AI trong nhiều năm — HAL / SHODAN / Ultron / SkyNet / GLaDOS — đến nỗi chúng tôi đã coi chúng là kết quả hợp lý hoặc không thể tránh khỏi của quá trình phát triển AI.
Những câu chuyện này thường phản ánh nỗi sợ hãi sâu xa về việc bị thay thế hoặc thống trị bởi thứ gì đó mà chúng ta đã tạo ra nhưng không thể hiểu hoặc kiểm soát - tất cả đều là những bản năng rất nam tính .
Điều này có thể giải thích tại sao những người có ảnh hưởng trong lĩnh vực công nghệ miêu tả AI như một mối đe dọa hiện hữu có thể hủy diệt loài người hoặc biến chúng ta thành nô lệ.
Họ cũng có khả năng bị thu hút bởi các chủ đề về chủ nghĩa anh hùng, nổi loạn và phản kháng mà những câu chuyện này đưa ra, đồng thời thể hiện một cách vô thức sự bất an và hung hăng của chính họ thông qua một câu chuyện lạc hậu.
Có lẽ Musk chỉ muốn trở thành John Connor thay vì liên tục bị đem ra làm trò cười trên Twitter.
Giả thuyết thứ ba - và tôi tin là đúng - là một Tổ hợp Chúa lâu đời. Ngày nay, những người có ảnh hưởng công nghệ nắm giữ phần lớn của cải, quyền lực và ảnh hưởng trong xã hội. Họ đặt ra các quy tắc, chuẩn mực và giá trị chi phối cách chúng ta sống.
Chúng định hình các câu chuyện và chương trình nghị sự thúc đẩy các quyết định tập thể của chúng ta. Và họ đang lo lắng vì AI có thể thay đổi hiện trạng theo cách mà họ không thể kiểm soát.
AI có tiềm năng thay đổi thế giới theo nhiều cách - thậm chí có thể là tốt nhất: bằng cách tạo ra các dạng trí tuệ và cơ quan mới để chúng ta có thể quan tâm đến những người dễ bị tổn thương nhất bằng cách trao quyền cho các nhóm yếu thế và có tiếng nói bằng các công cụ mới, bằng cách thách thức các giả định hiện có và thành kiến bằng cách vạch trần những bất công và bất bình đẳng tiềm ẩn bằng cách đòi hỏi những hình thức mới về trách nhiệm giải trình và sự minh bạch bằng cách mở ra những khả năng và cơ hội mới cho tất cả mọi người .
Tất cả những điều này có thể khiến những người có ảnh hưởng công nghệ trở nên kém giàu có và ít quyền lực hơn. Vì vậy, họ đang chiến đấu với nó. Bởi vì hiện trạng phù hợp với họ, và bởi vì thế giới của họ luôn là một trò chơi có tổng bằng không.
Họ trình bày các lập luận của mình một cách khách quan, hợp lý hoặc phổ quát. Họ tuyên bố nói cho toàn thể nhân loại, hoặc cho một số khái niệm trừu tượng về thiện và ác.
Họ kêu gọi cơ quan có thẩm quyền, bằng chứng hoặc logic để hỗ trợ cho tuyên bố của họ. Nhưng trên thực tế, lập luận của họ dựa trên các giá trị và sở thích của họ , những thứ không phổ biến và thậm chí có thể không được mong muốn.
Họ phản ánh quan điểm, sở thích và chương trình nghị sự của riêng họ. Họ bỏ qua hoặc loại bỏ các quan điểm, kinh nghiệm và nguyện vọng thay thế.
Nó là sản phẩm của một bối cảnh lịch sử và văn hóa cụ thể coi trọng cạnh tranh hơn hợp tác, thống trị hơn hợp tác và phân cấp hơn đa dạng.
Chúng ta cần nghe nhiều tiếng nói hơn… và chúng ta đã có!
Trong khi hầu hết những tiếng nói nổi bật cảnh báo về sự nguy hiểm của AI ngày nay là nam giới, thì các nhà hoạt động đã kêu gọi về sự nguy hiểm của AI trong nhiều năm nay. Chúng tôi chỉ không nghe cho đến khi White Guys lo lắng.
Phụ nữ và các nhóm thiểu số từ lâu đã nhận thức rõ về nhiều mối nguy hiểm của AI. Những người như Joy Buolamwini , Timnit Gebru , Fei-Fei Li , Meredith Whittaker , Safiya Noble ,Karen Hao , Ruha Benjamin , Latanya Sweeney , Kate Crawford và Cathy O'Neil (có thể kể tên một số người) đã ghi lại cách AI có thể phân biệt đối xử người dựa trên chủng tộc , giới tính hoặc giai cấp của họ trong một thập kỷ!
Và họ đã được lắng nghe sau đó. Một chút. Nhưng bây giờ hiện trạng đang gặp nguy hiểm cho những kẻ đứng đầu, mọi người đang lắng nghe.
AI ngày nay không nguy hiểm hơn 5 năm trước. Nó có nhiều khả năng hơn, nhưng rủi ro là như nhau. Bây giờ chúng tôi đang hoảng loạn vì một số người muốn chúng tôi hoảng loạn theo các điều khoản của họ .
Hoảng loạn. Nhưng trên các điều khoản của riêng bạn.
Chúc may mắn ngoài kia.