Năm 2017, một robot cảm thấy mệt mỏi với công việc của mình và tự sát trong đài phun nước . Sau đó, vào năm 2022, một kỹ sư của Google tuyên bố , sau khi tương tác với LaMDA, chatbot của công ty, công nghệ đó đã trở nên có ý thức. Gần đây có thông tin cho rằng vào năm 2021, một kỹ sư phần mềm của Tesla đã bị một con robot không điều khiển tấn công. Điều này là chưa tính đến nỗi lo sợ rằng máy móc sẽ cướp mất việc làm hoặc câu chuyện viễn tưởng kinh điển rằng máy móc sẽ thống trị thế giới.
Mặc dù chúng ta không coi máy móc là bản sao trong Blade Runner, nhưng con người có xu hướng nhân hóa hoặc gán những phẩm chất của con người cho những người không phải là con người [1]. Đó là một cách để chúng ta có thể phân tích một tình huống và hiểu nó: chúng ta đặt tên cho những con thuyền và cơn lốc xoáy của mình, chúng ta nói chuyện với thú cưng của mình và nói rằng cảm giác dễ chịu mà chúng mang lại cho chúng ta chính là tình yêu. Sẽ dễ hiểu hơn về một hệ thống tuyên bố ở ngôi thứ nhất "Tôi xin lỗi, tôi không biết cách giúp bạn" hơn là chấp nhận rằng mô hình mà chúng ta đang nói đến có thể chẳng khác gì một con vẹt ngẫu nhiên. [2]
Do đó, sự tương tác được nhân cách hóa liên quan đến hiện tượng "ảo tưởng về cơ quan", một khái niệm tâm lý đề cập đến xu hướng gán hành động hoặc quyền kiểm soát tự chủ cho các thực thể mà trên thực tế không sở hữu những khả năng đó. Nói cách khác, đó là nhận thức sai lầm rằng một tác nhân (có thể là con người, động vật hoặc máy móc) đang hành động theo ý chí tự do của chính nó, trong khi trên thực tế, hành động của nó được xác định bởi các yếu tố bên ngoài (trong trường hợp tính toán, sự phát triển). quy tắc).
Trong các tình huống mà hệ thống AI đưa ra các quyết định hoặc hành động sai sót, có xu hướng coi những lỗi này là "sự lựa chọn" của thực thể hơn là kết quả của việc con người lập trình và thiết kế nó, đặc biệt là vì đã có báo cáo cho rằng thành kiến ích kỷ của một thực thể. con người khiến ai đó nhìn thấy nguyên nhân và trách nhiệm đối với một kết quả tiêu cực mà họ không thể quy cho họ có thể được quan sát thấy ngay cả trong các tương tác giữa con người và máy móc [3].
Sự thay đổi trong nhận thức này có xu hướng nguy hiểm là loại bỏ trách nhiệm của những người sáng tạo, người vận hành và cơ quan quản lý con người, chứ không phải là vấn đề của quy định tư pháp (vẫn còn một lỗ hổng và có những thách thức trong việc thực hiện nó không chỉ vì tính phức tạp của chủ đề mà còn vì Nhân tạo). Trí thông minh thường chỉ được hiểu là máy học và tiền đề không được cấu trúc hợp lý. Chúng ta có cần quy định chặt chẽ hơn không? Chúng ta có cần chấp nhận nhiều rủi ro hơn không?), mà là về vấn đề đạo đức kỹ thuật.
Hãy lấy một sự kiện cực đoan hơn nhưng có thật xảy ra vào năm 2023: một người dùng gắn bó tình cảm với chatbot đã tự tử sau khi chia sẻ suy nghĩ của mình với bot và nhận được phản hồi "biến lời nói thành hành động" cũng như các tin nhắn khác. Liệu phán quyết của tòa án đối với các nhà phát triển sản phẩm này có khiến người dùng khác hành xử tương tự với một chatbot khác, giả sử rằng chatbot này đã bị vô hiệu hóa, nếu nội dung tin nhắn và tình cảm giống nhau? Đó không chỉ là một tình huống pháp lý. Đó là một vấn đề giáo dục xã hội, tâm lý và công nghệ.
Khái niệm nhân bản hóa AI còn mơ hồ và thách thức đáng kể nằm ở việc thiếu một cách tiếp cận được chấp nhận rộng rãi nhằm đưa ra các phương pháp thực hành tốt nhất để thiết kế và sử dụng AI. Mặc dù giao diện bắt chước hành vi của con người có thể dễ tiếp cận hơn nhưng không có ranh giới rõ ràng nào xác định những gì nên hoặc không nên làm trong một sản phẩm. Cuối cùng, sự từ chối của người dùng trở thành yếu tố hạn chế duy nhất, mặc dù tác hại tiềm tàng có thể biểu hiện trước khi giao diện trở nên quá xa lạ.
Giao diện thân thiện với người dùng là sự giảm bớt độ phức tạp của hệ thống hoạt động đằng sau nó. Nhưng chừng nào không có sự giáo dục về cách hệ thống hoạt động, người dùng sẽ không thể suy nghĩ chín chắn về những gì họ sử dụng. Điều này không có nghĩa là mọi người đều nên trở thành lập trình viên, nhưng ít nhất hãy hiểu rằng đầu ra trên màn hình của họ đến từ con đường thu thập dữ liệu, phát triển mô hình và thiết kế. Có một bộ quy tắc diễn ra. Vì nhân hóa là một hành động gần như vô thức đối với người dùng chúng ta, nên ít nhất chúng ta hãy hạn chế nó bằng một chút kiến thức.
Và không dễ để tránh chủ nghĩa nhân hình khi truyền đạt về AI, đặc biệt khi xét đến ngôn ngữ tiêu chuẩn của ngành, phương tiện truyền thông và chính cuộc sống hàng ngày: học máy, thị giác máy tính, mô hình tổng quát. Nhận thức về Trí tuệ nhân tạo có thể bị ảnh hưởng bởi việc sử dụng ngôn ngữ cụ thể.
Cách AI được trình bày có "tác động cụ thể", đặc biệt là về cách mọi người phân bổ trách nhiệm và ghi nhận công việc đã hoàn thành. Khi được mô tả đơn thuần như một công cụ trong tay con người, nó có xu hướng gán trách nhiệm và công lao lớn hơn cho một số cá nhân nhất định - chẳng hạn như người vận hành mã. Mặt khác, nếu AI mang đặc điểm của con người - chẳng hạn như khả năng sáng tạo - thì nó được coi là xứng đáng được ghi nhận và có trách nhiệm cao hơn, giống như một đặc vụ có tư duy và năng lực tinh thần độc lập. [4] Khi đọc tin tức về các sự cố hoặc sự kiện không điển hình liên quan đến Trí tuệ nhân tạo, chúng ta thường gặp những thuật ngữ này.
Ngoài ra, việc gán "trí thông minh" có nghĩa là robot có hành vi tự trị sẽ bị đổ lỗi hoặc ghi nhận nhiều hơn cho kết quả của một nhiệm vụ so với robot không tự trị, ngay cả khi hành vi tự trị đó không trực tiếp đóng góp vào nhiệm vụ. [3] Do đó, những nghiên cứu này gợi ý rằng con người có thể giao trách nhiệm cho máy tính hoặc robot dựa trên năng lực tinh thần được nhân cách hóa của máy móc.
Việc nhân bản hóa máy móc không chỉ làm thay đổi sự khác biệt giữa trách nhiệm của thiết bị và trách nhiệm của con người tạo ra nó, mà việc gán ý định hoặc ý thức cho máy móc đồng thời làm mờ ranh giới của những gì tạo nên quyền tự chủ và ý thức thực sự.
Tuy nhiên, khó khăn trong việc gán nhân tính và khả năng tri giác cho một cỗ máy không chỉ nằm ở việc Trí tuệ nhân tạo không có khả năng có được nó và chẳng hạn như khi nó nói rằng nó cảm thấy sợ hãi, nó thực sự đang mô phỏng những gì nó đã học được, lặp lại cụm từ đó không có bất kỳ loại bản chất nào đằng sau nó. Thậm chí ngày nay vẫn còn tranh luận sôi nổi về cách định nghĩa ý thức. Ý thức của chúng ta, với tư cách là con người.
Sự hiểu biết của chúng ta về cách thức hoạt động của bộ não vẫn còn khá hạn chế. Chúng ta có kiến thức đáng kể về hóa học cơ bản: cách tế bào thần kinh kích hoạt và truyền tín hiệu hóa học. Chúng ta cũng hiểu rõ về chức năng chính của các vùng não khác nhau. Tuy nhiên, chúng ta có rất ít kiến thức về cách các chức năng này điều phối chúng ta. Ở một mức độ nào đó, suy đoán lý thuyết đã thay thế các nghiên cứu sinh lý thần kinh chi tiết về những gì xảy ra trong não. Nhưng ngoài ra thì sao? [5] Tại sao chúng ta lại có khái niệm kỳ diệu này về bản thân? Tại sao cùng một trải nghiệm lại ảnh hưởng đến chúng ta một cách khác nhau? Có phải tất cả chúng ta đều cảm thấy cùng một cảm giác giống nhau không?
Nếu con người là một thứ mà mặc dù chúng ta trải nghiệm nó nhưng chúng ta vẫn chưa hiểu đầy đủ về tổng thể nó là gì, thì làm sao chúng ta có thể nói rằng một cỗ máy cũng trải qua sự phức tạp này? Bằng cách nâng máy móc lên ngang tầm với khả năng của con người, chúng ta làm giảm đi tính cách đặc biệt của con người.
Đối với Giải thưởng Jabuti năm 2023, một trong những giải thưởng cao quý nhất trong văn học Brazil, Phòng Sách Brazil (CBL) đã quyết định loại Frankenstein, một ấn bản của tác phẩm kinh điển năm 1818, khỏi hạng mục Minh họa đẹp nhất, vì nghệ sĩ này cho biết đã sử dụng các giải pháp AI để phát triển. nghệ thuật. Trớ trêu thay, một trong những cuốn sách được Giải thưởng ở hạng mục Phi hư cấu đề cập đến tác động của Trí tuệ nhân tạo đối với con người (“Humanamente digital: Inteligência nhân tạo centrada no humano”, đại loại như "Con người kỹ thuật số: Trí tuệ nhân tạo lấy con người làm trung tâm" bằng tiếng Anh, bởi Cassio Pantaleone). Một mặt, chúng tôi nhận ra sự đan xen giữa trải nghiệm của con người với máy móc. Mặt khác, chúng tôi vẫn chưa xác thực được liệu thuật toán được sử dụng làm công cụ nghệ thuật có thể được coi là phương pháp sáng tạo hợp lệ hay không, mặc dù quy trình nghệ thuật, ngay cả khi được thực hiện bằng máy học, vẫn yêu cầu hành động ( và đánh giá cao vẻ đẹp và tính thẩm mỹ) của con người.
Máy móc không cướp mất việc làm nếu chúng không được sử dụng bừa bãi để làm việc đó. Máy móc không giết người trừ khi chúng được sử dụng làm vũ khí. Máy móc cũng không đau khổ hay đồng cảm, mặc dù văn bản của chúng mô phỏng điều này vì chúng đã được đào tạo bằng dữ liệu từ chúng ta, chứa đầy những cảm xúc mà chỉ chúng ta mới có thể thực sự cảm nhận được. Chúng gần như là phiên bản hiện đại của huyền thoại Golem. Làm thế nào con người có thể liên hệ với trí thông minh phi nhân loại? Thuyết nhân hình là một câu trả lời hợp lệ, nhưng không phải là câu trả lời duy nhất. Và khi nó được sử dụng, nó không thể miễn cho chúng ta trách nhiệm thực sự về hậu quả của nó, dù phù hợp hay không: chính chúng ta.
Trí tuệ nhân tạo cuối cùng là tấm gương phản chiếu chính chúng ta. Và nếu chúng ta sợ nó sẽ đi đến đâu thì thực ra là vì chúng ta sợ con đường mà chúng ta sẽ tạo ra.
[1] Epley, N., Waytz, A., & Cacioppo, JT (2007). Về việc nhìn thấy con người: Một lý thuyết ba yếu tố về thuyết nhân hóa. Tạp chí Tâm lý, 114(4), 864–886. https://doi.org/10.1037/0033-295X.114.4.864
[2] Shneiderman, B. & Muller, M. (2023) . Về thuyết nhân hóa AI
[3] Kawai, Y., Miyake, T., Park, J. và cộng sự. Các quy kết nhân quả và trách nhiệm dựa trên thuyết nhân hình đối với robot. Đại diện khoa học 13, 12234 (2023). https://doi.org/10.1038/s41598-023-39435-5
[4] Epstein, Z., Levine, S., Rand, DG, & Rahwan, I. (2020). Ai nhận được tín dụng cho nghệ thuật do AI tạo ra? Trong iScience (Tập 23, Số 9, trang 101515). Elsevier BV. https://doi.org/10.1016/j.isci.2020.101515
[5] Goff, P. (2023). Hiểu biết về ý thức vượt xa việc khám phá hóa học não. khoa học Mỹ
Lời nhắc sau đây tạo ra hình ảnh được sử dụng trong bài viết này: “Tạo một người đàn ông đang nhìn vào gương, nhưng chiếc gương có hình dạng giống như một con robot”. Sofia × DALL·E