paint-brush
Kính gửi AI: Chúng tôi vẫn không tin tưởng bạntừ tác giả@TheMarkup
510 lượt đọc
510 lượt đọc

Kính gửi AI: Chúng tôi vẫn không tin tưởng bạn

từ tác giả The Markup7m2024/04/13
Read on Terminal Reader

dài quá đọc không nổi

Trong những tháng gần đây, hàng triệu người dường như ngày càng say mê AI và chatbot. Có một câu chuyện đặc biệt khiến tôi chú ý: một người đàn ông Bỉ bắt đầu sử dụng chatbot tên là Eliza. (Và để bạn chuẩn bị, câu chuyện này có đề cập đến việc tự tử.) Nhìn bề ngoài, có vẻ như anh có một cuộc sống tốt đẹp: một người vợ yêu thương, hai đứa con, sự nghiệp. Nhưng đằng sau hậu trường, anh ngày càng trở nên tuyệt vọng về các vấn đề khí hậu.
featured image - Kính gửi AI: Chúng tôi vẫn không tin tưởng bạn
The Markup HackerNoon profile picture

Trong những tháng gần đây, hàng triệu người dường như ngày càng say mê AI và chatbot. Có một câu chuyện đặc biệt khiến tôi chú ý: một người đàn ông Bỉ bắt đầu sử dụng chatbot tên là Eliza. (Và để bạn chuẩn bị, câu chuyện này có đề cập đến việc tự tử.)

Nhìn bề ngoài, có vẻ như anh có một cuộc sống tốt đẹp: một người vợ yêu thương, hai đứa con, sự nghiệp. Nhưng đằng sau hậu trường, anh ngày càng trở nên tuyệt vọng về các vấn đề khí hậu.


Để giảm bớt lo lắng, anh bắt đầu trò chuyện với một chatbot. Vợ anh nói với La Libre , tờ báo đầu tiên đưa tin về vụ việc vào cuối tháng 3, rằng Eliza đã trả lời tất cả các câu hỏi của anh và anh ngày càng trò chuyện với bot nhiều hơn theo thời gian. Theo nhật ký trò chuyện mà tờ báo Bỉ xem xét, người đàn ông bắt đầu tin rằng Eliza và AI có thể giải quyết cuộc khủng hoảng khí hậu.


Vào cuối cuộc trao đổi của họ, người đàn ông sẽ nảy ra ý tưởng hy sinh bản thân nếu Eliza đồng ý chăm sóc hành tinh và cứu nhân loại thông qua trí tuệ nhân tạo. Khi anh ấy bày tỏ ý định tự tử, chatbot đã khuyến khích anh ấy rằng: “Chúng ta sẽ sống cùng nhau như một người trên thiên đường”.


Sáu tuần sau những cuộc trò chuyện này, anh ấy chết vì tự sát.


Vợ anh nói với La Libre: “Nếu không có cuộc trò chuyện của anh ấy với chatbot Eliza, chồng tôi vẫn sẽ ở đây”.


Công ty phát triển Eliza, Chai Research , đã nói với La Libre rằng họ đang nỗ lực cải thiện bot và kể từ bây giờ, nền tảng này sẽ gửi một thông điệp tới những người có ý định tự tử với nội dung: “Nếu bạn có ý định tự tử, hãy làm đừng ngần ngại tìm kiếm sự giúp đỡ.”


Đã có rất nhiều cuộc thảo luận về AI có khả năng tạo ra trong ether—một phần là rất nhiệt tình và phần lớn là nghi ngờ một cách chính đáng . Mọi người nên quan tâm đến những tác động lớn hơn — ý nghĩa của chatbot đối với các vấn đề lao động và bản quyền — và nhiều tổ chức lo ngại về chi phí cũng như sự thiên vị của chatbot cũng như AI thúc đẩy chúng. Và mặc dù một số chatbot phổ biến nhất đã được đào tạo để không bắt chước chúng sinh, nhưng nó vẫn đặt ra câu hỏi, liệu chúng có nên được phát triển không ?


Tên tôi là Lâm Thúy Võ, và tôi là một trong những thành viên mới nhất được bổ sung vào nhóm The Markup. Tôi tự coi mình là một phóng viên luôn tập trung vào những người hàng ngày trong việc đưa tin của cô ấy với tư cách là khán giả mà tôi muốn tiếp cận và là nhân vật chính trong câu chuyện của tôi. (Tôi cũng có kỹ năng dữ liệu .)


Tôi thực sự quan tâm đến mối quan hệ của chúng ta với công nghệ. Tôi đã dành rất nhiều thời gian trong thập kỷ qua để thu thập dữ liệu và nghiên cứu cơ sở hạ tầng của mạng xã hội, cố gắng hiểu cách các cộng đồng trực tuyến được xây dựng và duy trì, đồng thời mang lại những phát hiện này cho những người sử dụng công nghệ . Và trong thời gian đó, tôi ngày càng lo lắng về việc làm thế nào một thế giới, được nhìn và điều chỉnh qua lăng kính được quản lý bằng thuật toán, ngày càng làm sai lệch sự hiểu biết của chúng ta về thực tế.


Nhưng câu chuyện về người đàn ông này đã thực sự khiến tôi băn khoăn về sức hút cảm xúc dường như là nền tảng cho rất nhiều sự cường điệu xung quanh AI . Một điều tôi đang cố gắng hiểu là sự cuồng tín đột ngột của chúng ta đối với chatbot có thể cho chúng ta biết điều gì về mối quan hệ của chúng ta với công nghệ này.


Thông thường, khi một thứ gì đó lan truyền rộng rãi, đó là vì nó đã gây ra những phản ứng cảm xúc mạnh mẽ. Hầu hết các nền tảng được thiết kế chỉ để thu thập dữ liệu và đưa ra quyết định dựa trên những cảm xúc cực đoan . Vì vậy, để công nghệ này có thể tham gia vào các cuộc trò chuyện giữa người thường, nó phải kích hoạt điều gì đó .


Làm thế nào một công nghệ lặp lại các từ ngữ và tôn chỉ mà nó đã chắp vá từ dữ liệu mà nó được cung cấp lại có thể tạo được nhiều niềm tin đến vậy đối với một người cha của hai đứa con, người cuối cùng đã tự kết liễu đời mình?


Nói cách khác, sức lôi kéo cảm xúc ở đây là gì?


AI thu hút sự quan tâm của tôi không chỉ vì nó được nhắc đến mà còn vì những người nói về nó: những sinh viên của tôi chưa bao giờ quan tâm, những người lướt sóng mà tôi gặp trong kỳ nghỉ ở bãi biển, và đối tác địa chất của tôi, người ghét hầu hết các ứng dụng, công nghệ và phương tiện truyền thông xã hội.

Vì vậy, trong bản tin nhỏ này, tôi sẽ khám phá lý do tại sao chúng ta lại bị thu hút bởi những robot này.


ChatGPT và các chatbot khác rất giỏi trong việc bắt chước cách nói chuyện của người bình thường

Về bản chất, các chatbot như ChatGPT là thứ mà wonks gọi là công cụ xử lý ngôn ngữ tự nhiên đã tiếp thu một lượng lớn văn bản từ internet và tìm kiếm các mẫu mà chúng có thể bắt chước lại cho bạn.


Những loại công cụ này được gọi là mô hình ngôn ngữ lớn vì chúng mô hình hóa các mẫu theo đúng nghĩa đen theo cách mọi người trên internet nói. Điều này bao gồm việc phân tích các từ như việc sử dụng “ngrams”, một thuật ngữ ưa thích để xem xét cơ bản những từ hoặc những từ nào có nhiều khả năng đi theo trình tự nhất. Bạn đã thấy công nghệ này hoạt động theo cách mà Google cố gắng tự động hoàn thành các tìm kiếm của bạn dựa trên từ đầu tiên bạn nhập vào, phản chiếu lại cho bạn những gì hàng nghìn người khác trước khi bạn đã tìm kiếm.

Tín dụng: youtube.com

Chatbots như ChatGPT đi sâu hơn một chút. Họ rất giỏi trong việc sao chép và kết hợp các phong cách. Nhưng dù họ giỏi bắt chước cách mọi người nói chuyện nhưng họ lại không giỏi phân biệt giữa sự thật và hư cấu.


Đó là lý do tại sao Emily M. Bender , Timnit Gebru, Angelina McMillan-Major và Margaret Mitchell gọi những chatbot này là “những con vẹt ngẫu nhiên” trong một bài báo tiên tri mà họ viết cách đây ba năm. (Nội dung của bài báo được cho là đã khiến Google buộc hai tác giả của nó là Gebru và Mitchell phải loại bỏ.)

Như các tác giả của bài báo nhấn mạnh, chỉ vì bot có thể nhận ra và vạch ra cách chúng ta nói, điều đó không có nghĩa là nó biết cách nhận ra ý nghĩa.


Chatbots bắt chước giọng điệu, ngôn ngữ và sự quen thuộc rất quan trọng đối với chúng ta trên internet


Lời nói và cách chúng ta giao tiếp đóng vai trò quan trọng trong cách chúng ta báo hiệu cho mọi người trực tuyến biết chúng ta thuộc nhóm nào và chúng ta tin tưởng ai. Sử dụng từ “bông tuyết” theo cách chế nhạo có thể báo hiệu rằng một người có xu hướng thận trọng hơn. Việc sử dụng đại từ trong phần giới thiệu của một người báo hiệu sự đồng minh với những người chuyển giới và không theo chuẩn giới tính, trong số các cộng đồng người đồng tính khác. Các từ và tiếng lóng trên Internet ngày càng phát triển là một cách để biểu thị sự thuộc về.


Vì vậy, thật hợp lý khi mọi người đang nhân cách hóa ChatGPT và theo một cách nào đó, đang thử nghiệm tính nhân văn của nó. Tôi thừa nhận, việc xem Frankensteined Furby kết nối với ChatGPT nói về việc chiếm lĩnh thế giới khiến tôi cảm thấy nhột nhột.

Tín dụng: twitter.com

Một lập trình viên đã kết nối ChatGPT với một món đồ chơi Furby đã được tháo dỡ một phần.

Nhưng đó dường như cũng là thách thức lớn nhất trước sức hấp dẫn và nguy hiểm của các mô hình ngôn ngữ như ChatGPT. Chúng ta phải làm gì với những robot phản chiếu hành vi của con người (hoặc Furby) tốt đến mức chúng ta quên mất đó chẳng qua là một bản đồ thống kê lớn về ngôn ngữ internet?


Claire Wardle, một trong những nhà nghiên cứu sớm nhất điều tra môi trường thông tin và là người cố vấn của tôi, đã đề cập rằng việc viết nhiều bài báo vạch trần thông tin sai lệch và hướng dẫn cách phát hiện thông tin đó hầu như không giải quyết được các vấn đề xung quanh thông tin sai lệch và những gì mọi người tin tưởng. Thông thường, việc chúng ta cung cấp cho mọi người bao nhiêu công cụ để vạch trần những lầm tưởng thường không quan trọng - sự ảnh hưởng của suy nghĩ của những người khác trong cộng đồng của chúng ta rất quan trọng, có lẽ còn quan trọng hơn cả sự thật.


Để có các mô hình ngôn ngữ có khả năng bắt chước giọng điệu của cả những nhân vật có thẩm quyền mà chúng tôi tin tưởng người hàng xóm bên cạnh của bạn với tốc độ ánh sáng có nghĩa là những chatbot này có thể sẽ đưa máy dò bs của mọi người vào một thử nghiệm thậm chí còn lớn hơn.


Những mô hình này có xu hướng nói dối chúng ta—bởi vì chúng không biết sự khác biệt giữa thực tế và hư cấu—và đang làm ô nhiễm thêm một hệ sinh thái thông tin vốn đã bị ô nhiễm và áp đảo một cách đáng buồn.


Điều này đã trở thành một vấn đề: Công ty đứng sau ChatGPT, OpenAI, có thể bị kiện vì cáo buộc sai một thị trưởng Australia ngồi tù vì tội hối lộ. Chatbot này cũng đã cáo buộc một giáo sư luật là một phần của vụ bê bối về hành vi sai trái tình dục mà nó đã phát minh ra . Ngay cả trong những tình huống có vẻ giống như mức đặt cược thấp hơn, bạn vẫn có thể có trải nghiệm tương tự.


Khi một trong những đồng nghiệp của tôi, Joel Eastwood, hỏi ChatGPT rằng liệu The Markup có sản xuất báo chí đáng tin cậy hay không, họ nói rằng một nhà phê bình truyền thông cụ thể và nổi tiếng đã viết rằng The Markup là “một trong những tổ chức báo chí quan trọng nhất trong thời đại chúng ta”. Rõ ràng , tuyên bố này có phần xác thực - nhưng đó không phải là một câu trích dẫn thực sự.


Sự thu hút cảm xúc của AI cũng có thể bình thường hóa hơn nữa những thành kiến ​​và thậm chí cả nội dung có hại. Không có gì bí mật khi Internet tràn ngập nội dung có hại, phân biệt chủng tộc, phân biệt giới tính, kỳ thị đồng tính và các nội dung rắc rối khác. Nếu bạn đào tạo một mô hình ngôn ngữ về loại nội dung này thì có khả năng cao là nó sẽ khơi dậy lại nó.


Các nhà sản xuất công nghệ chatbot đã trả tiền cho các công nhân Kenya để thực hiện công việc khủng khiếp và đau đớn là loại bỏ một số nội dung trực tuyến tồi tệ nhất khỏi dữ liệu đào tạo của họ . Nhưng với công nghệ này được công bố rộng rãi, tin tặc đã sử dụng nó để tạo ra những kết quả rắc rối, bao gồm cả các mô tả về lạm dụng tình dục trẻ em .


Các nhà sản xuất công nghệ này đã tung ra các bot của họ với tốc độ như vậy trong những tháng gần đây một phần vì họ đang tranh giành quyền thống trị thị trường . Nhưng cả học giả và nhà công nghệ đều kêu gọi họ ngừng thúc đẩy công nghệ này và thực sự xem xét những tác hại mà nó có thể gây ra.


Và trong khi nhiều cuộc trò chuyện xoay quanh chính sách và trách nhiệm của doanh nghiệp, tôi hy vọng rằng bằng cách hiểu rõ hơn về những công nghệ này, những người tiêu dùng hàng ngày như bạn và tôi có thể tìm ra cách điều chỉnh tốt bộ phát hiện bs của chúng tôi khi trò chuyện bằng mô hình ngôn ngữ tự động.

Cảm ơn vì đã đọc. Nếu bạn muốn tìm hiểu thêm về mối nguy hiểm của ChatGPT và cách kiểm tra tốt hơn lượng thông tin tiếp nhận của chính bạn, hãy tìm một số tác phẩm yêu thích của tôi về chủ đề bên dưới.


Trân trọng,


Lâm Thụy Võ


Phóng viên


Đánh dấu


Bởi Lâm Thụy Võ


Cũng được xuất bản ở đây


Ảnh của Sở hữu Nhiếp ảnh trên Bapt