paint-brush
Liệu đầu ra của máy móc có đủ điều kiện để được bảo vệ quyền tự do ngôn luận không?từ tác giả@pawarashishanil
Bài viết mới

Liệu đầu ra của máy móc có đủ điều kiện để được bảo vệ quyền tự do ngôn luận không?

từ tác giả Ashish Anil Pawar6m2024/11/28
Read on Terminal Reader

dài quá đọc không nổi

Khi các hệ thống AI tạo ra nội dung ngày càng tinh vi, một câu hỏi phức tạp xuất hiện: liệu đầu ra của chúng có đủ điều kiện được coi là "lời nói" theo các biện pháp bảo vệ quyền tự do ngôn luận hay không? Trong khi AI thiếu ý định, tính độc đáo và trách nhiệm giải trình - các yếu tố chính của lời nói của con người - thì đầu ra giống như thật của nó có thể có ảnh hưởng, gây tranh cãi và thậm chí có hại. Điều này đặt ra những thách thức pháp lý và đạo đức cấp bách: Ai sở hữu hoặc chịu trách nhiệm cho những đầu ra này - nhà phát triển, người dùng hay không ai cả? Chính phủ có nên quản lý chúng như các công cụ hay chúng xứng đáng được bảo vệ giống như cách thể hiện của con người? Bài viết này khám phá cơ chế của nội dung do AI tạo ra, đi sâu vào các mối nguy hiểm trong thế giới thực như lời nói thù địch và thông tin sai lệch, đồng thời đề xuất một khuôn khổ mới để phân loại đầu ra của AI là "lời nói mô phỏng". Bài phát biểu mô phỏng thừa nhận khả năng của AI trong việc bắt chước biểu cảm của con người trong khi nhận ra sự thiếu tác nhân hoặc ý định của nó, cho phép chúng ta điều chỉnh nội dung do máy tạo ra mà không xâm phạm quyền tự do ngôn luận của con người. Cuối cùng, cuộc tranh luận làm nổi bật một sự chia rẽ quan trọng: tự do ngôn luận là quyền con người—nó có mở rộng sang máy móc tạo ra hay cần phải vạch ra một ranh giới mới?
featured image - Liệu đầu ra của máy móc có đủ điều kiện để được bảo vệ quyền tự do ngôn luận không?
Ashish Anil Pawar HackerNoon profile picture
0-item

Bạn đang cuộn qua nguồn cấp dữ liệu X của mình và bạn thấy một bản tuyên ngôn chính trị với quan điểm khiêu khích về chính sách khí hậu. Nó được lập luận chặt chẽ, đầy nhiệt huyết và thu hút hàng nghìn lượt chia sẻ lại. Sau đó, bạn biết rằng nó không phải do một chính trị gia hay thậm chí là con người viết ra. Thay vào đó, nó được tạo ra bởi một mô hình AI mạnh mẽ nào đó—một mô hình ngôn ngữ được đào tạo để ghép các từ lại với nhau dựa trên các mẫu mà nó đã quan sát được trên nhiều vùng rộng lớn của internet. Điều đó có thay đổi cảm nhận của bạn về bản tuyên ngôn không? Có nên không? Và đây là điểm then chốt: "bài phát biểu" này có giống như cách mà một con người viết ra nó không?


Ranh giới giữa biểu đạt do con người điều khiển và nội dung do máy tạo ra ngày càng khó phân biệt hơn. Các mô hình AI tạo ra như GPT-4 của OpenAI hay Gemini của Google không chỉ đưa ra các từ khóa hoặc câu trả lời đơn giản mà còn tạo ra toàn bộ câu chuyện, thiết kế các lập luận và đôi khi, gây ra tranh cãi. Chúng có thể viết thơ, soạn thảo kiến nghị hoặc thậm chí tạo ra nội dung gây tranh cãi. Và điều này đặt ra một câu hỏi tò mò và hơi khó chịu: liệu đầu ra của chúng có thực sự là "bài phát biểu" không? Nếu vậy, liệu bài phát biểu đó có được hưởng cùng sự bảo vệ pháp lý mà chúng ta dành cho biểu đạt của con người không? Hay nội dung do AI tạo ra nên được xếp vào một danh mục riêng, với các quy tắc riêng biệt?


Hãy cùng khám phá điều này, không chỉ từ góc nhìn "người sáng tạo nội dung" ở mức độ bề mặt, mà thực sự đi sâu vào thực tế kỹ thuật lộn xộn, các hàm ý pháp lý và những câu hỏi triết học. Bởi vì, thành thật mà nói, nó không đơn giản như bạn nghĩ.

AI không nói, nó đang tính toán

Trước tiên, hãy vén bức màn và xem xét những gì thực sự xảy ra khi AI tạo ra "lời nói". Về bản chất, một mô hình AI tạo ra như GPT-4 không phải là tạo ra các câu từ hư không hoặc đưa ra các ý tưởng độc đáo. Thay vào đó, nó hoạt động trên các xác suất thống kê - phép toán khó của ngôn ngữ.


Đây là cách nó hoạt động: Các mô hình AI được đào tạo trên các tập dữ liệu lớn bao gồm sách, blog, bài đăng trên mạng xã hội và về cơ bản là bất kỳ thứ gì khác có sẵn trên internet. Trong quá trình đào tạo, chúng phân tích các văn bản này để hiểu mối quan hệ giữa các từ. Các từ không được lưu trữ trong máy tính chính xác như các từ; chúng được chuyển thành cái gọi là mã thông báo , giống như các khối xây dựng nhỏ. Một cụm từ như "The quick brown fox" có thể được chia thành các mã thông báo riêng lẻ như `[The]`, `[quick]`, `[brown]`, `[fox]`. Sau đó, AI sẽ biết mã thông báo nào có khả năng theo sau mã thông báo khác. Sau khi đã tiếp thu đủ các mẫu, nó có thể dự đoán mã thông báo tiếp theo trong một chuỗi.


Hãy nghĩ về điều đó trong một giây: AI không nghĩ về những gì nó muốn nói; nó đang tính toán khả năng toán học của từ tiếp theo. Ví dụ, nếu bạn nhắc nó bằng "The quick brown fox jumps", mô hình có thể dự đoán rằng mã thông báo hợp lý tiếp theo là "hết". Đó không phải là sự sáng tạo hay ý định—đó chỉ là toán học.


Nhưng đây là điều thú vị: khi bạn xâu chuỗi đủ các dự đoán này lại với nhau qua hàng nghìn tỷ tham số (trọng số số phức tạp, đồ sộ hướng dẫn cách một mô hình hoạt động), bạn sẽ có được thứ gì đó cực kỳ sống động. Thêm vào các kỹ thuật như kiến trúc máy biến ápcơ chế chú ý tiên tiến, và đột nhiên bạn sẽ thấy toàn bộ bài luận về biến đổi khí hậu hoặc một bài thơ hoàn chỉnh về mất mát và hy vọng. Những đầu ra này có vẻ rất giống con người. Nhưng chúng có phải là lời nói không?

Hang thỏ triết học: “Lời nói” là gì?

Lời nói, như một khái niệm, mang rất nhiều trọng lượng. Nó không chỉ là nói điều gì đó—mà là có điều gì đó để nói . Lời nói giả định ý định, tác nhân và trách nhiệm. Khi tôi viết blog này, tôi đang bày tỏ suy nghĩ của mình, bất kể bạn có đồng ý với chúng hay không. Nếu tôi bị thông tin sai lệch hoặc xúc phạm, tôi chịu trách nhiệm về hậu quả của những gì tôi nói. Tên của tôi được gắn vào bài đăng này. Tôi là người suy nghĩ, và đây là cách diễn đạt của tôi.


Nhưng AI tạo sinh không có suy nghĩ. Nó không biết mình đang nói gì hoặc tại sao lại nói như vậy. Khi bạn nhập một lời nhắc như, "Viết một bài luận thuyết phục về lý do tại sao xe điện nên thay thế xe chạy bằng xăng", GPT-4 không cân nhắc những ưu và nhược điểm của năng lượng sạch và địa chính trị. Nó sử dụng các mẫu ngôn ngữ mà nó biết và cung cấp cho bạn câu có khả năng thống kê cao nhất để theo sau đầu vào của bạn. Tuy nhiên, một điều kỳ diệu đã xảy ra: nó giống như lời nói.


Và đây là nơi mọi thứ trở nên rắc rối. Nếu AI tạo ra thứ gì đó ảnh hưởng đến diễn ngôn công khai—giả sử nó tạo ra thông tin sai lệch về khí hậu lan truyền nhanh chóng—liệu những từ ngữ đó có được bảo vệ theo luật tự do ngôn luận không? Chúng ta biết rằng con người không tạo ra những ý tưởng đó, vậy ai, nếu có, chịu trách nhiệm cho chúng? Hãy cùng tìm hiểu sâu hơn.

Nhà phát triển, Người dùng hay AI: Ai là người nói thực sự?

Đây chính là nơi cuộc tranh luận về quyền tự do ngôn luận trở thành câu đố về trách nhiệm giải trình: Nếu kết quả đầu ra của AI tạo ra không phải do con người điều khiển, thì ai sở hữu những từ ngữ đó và ai sẽ chịu trách nhiệm khi nội dung không đạt yêu cầu?


- Các nhà phát triển: Các công ty như OpenAI hoặc Google thường lập luận rằng họ chỉ đang xây dựng các công cụ—nền tảng trung lập mà người dùng định hình và chỉ đạo thông qua các lời nhắc. "Chúng tôi chỉ đào tạo đàn piano", họ nói. "Người khác quyết định chơi giai điệu nào". Nhưng phép ẩn dụ này đã đơn giản hóa mọi thứ quá mức. Đầu ra của AI bị ảnh hưởng rất nhiều bởi các tập dữ liệu mà các nhà phát triển đã chọn và cách họ tinh chỉnh các mô hình của mình. Một tập dữ liệu thiên vị dẫn đến các đầu ra thiên vị—nếu văn bản có hại xuất hiện, liệu người sáng tạo có thực sự có thể tuyên bố trung lập không?


- Người dùng: Còn người nhập lời nhắc thì sao? Một số người cho rằng họ phải chịu trách nhiệm. Nếu tôi bảo AI "viết một bài báo gây tranh cãi lan truyền thông tin giả về vắc-xin" và nó tuân thủ, thì rõ ràng là tôi có ý định. Tuy nhiên, điều này khó khăn hơn khi người dùng vô tình nhắc nhở các đầu ra có hại hoặc khi đầu ra đi chệch khỏi kịch bản vào các lĩnh vực nằm ngoài tầm kiểm soát của người dùng.


- Bản thân AI: AI có thể được coi là người nói không? Một số nhà tương lai học đã suy đoán về việc các hệ thống AI đạt được "Nhân cách số", nhưng ý tưởng này cực kỳ có vấn đề. Máy móc không có ý định, không thể chịu trách nhiệm và việc mở rộng quyền tự do ngôn luận cho máy móc sẽ tạo ra một ngày hỗn loạn về mặt pháp lý.


Sự thật là, không ai muốn chịu trách nhiệm hoàn toàn. Các nhà phát triển hạ thấp trách nhiệm, người dùng coi đó là vô tình, và AI, ừm, chỉ là một cỗ máy. Tuy nhiên, tác động hạ nguồn của nội dung do AI tạo ra có thể rất lớn.

Điều gì xảy ra khi đầu ra của AI gây hại?

Hãy đưa ra một số tình huống thực tế để cảm nhận được sức nặng của vấn đề.


- Trường hợp 1: Lời nói thù hận

Giả sử một hệ thống AI tạo ra nội dung phân biệt chủng tộc hoặc phân biệt giới tính một cách trắng trợn. OpenAI và các nhà phát triển khác nhúng các biện pháp bảo vệ—như học tăng cường từ phản hồi của con người (RLHF)—để giảm thiểu tác hại, nhưng không có mô hình nào là hoàn hảo. Độc tính vẫn có thể lọt qua. Khi điều này xảy ra, ai là người phải chịu trách nhiệm? AI không biết mình đang làm gì. Có phải đó là lỗi trong tập dữ liệu của OpenAI không? Có phải người dùng vô trách nhiệm trong việc nhắc nhở không? Hay chúng ta chỉ để những kết quả đầu ra này không được kiểm tra?


- Trường hợp 2: Thông tin sai lệch

Bây giờ hãy tưởng tượng một AI tạo ra các bài báo tin tức giả mạo có độ tin cậy cao về một ứng cử viên chính trị và tràn ngập phương tiện truyền thông xã hội. Không giống như tuyên truyền do con người tạo ra, thông tin sai lệch này có thể được sản xuất hàng loạt ở quy mô lớn với nỗ lực tối thiểu. Liệu những đầu ra như vậy có đủ điều kiện là bài phát biểu chính trị được bảo vệ hay chúng là mối nguy hiểm công cộng cần được quản lý chặt chẽ (hoặc bị cấm hoàn toàn)?


- Trường hợp 3: Biểu hiện nghệ thuật

Còn khi AI sáng tác nghệ thuật hoặc thơ ca thì sao? Liệu nó có được bảo vệ như là “biểu đạt” theo các nguyên tắc tự do ngôn luận không? Và khi AI chiến thắng các cuộc thi nghệ thuật hoặc tạo ra các tác phẩm sáng tạo, ai sở hữu quyền đối với các đầu ra đó? Nhà phát triển? Người dùng? Hay nó là phạm vi công cộng?


Câu trả lời còn mơ hồ, đó là lý do tại sao tòa án và các nhà hoạch định chính sách bị bất ngờ. Đây là những trường hợp ngoại lệ mà không ai lường trước được khi luật tự do ngôn luận được soạn thảo.

Đã đến lúc cần một danh mục mới chưa? “Giả lập lời nói”

Có thể hữu ích khi phân loại đầu ra AI tạo ra không phải là lời nói được bảo vệ, mà là "lời nói mô phỏng". Điều này sẽ chứng minh rằng trong khi đầu ra AI phản ánh biểu hiện của con người, chúng thiếu mục đích và trách nhiệm thực sự định nghĩa những gì chúng ta gọi là "lời nói". Với danh mục mới này, chúng ta có thể quản lý nội dung do AI tạo ra mà không làm suy yếu quyền tự do ngôn luận của con người.


Ví dụ:

- Đầu ra do AI tạo ra có thể yêu cầu gắn thẻ siêu dữ liệu để chỉ ra rằng chúng được tạo bởi máy (ví dụ: “Do GPT-4 tạo ra”).

- Các đầu ra có tác hại nặng nề (ví dụ: thông tin sai lệch, tuyên truyền cực đoan) có thể phải chịu sự giám sát đặc biệt hoặc thậm chí là hạn chế trong các bối cảnh có rủi ro cao, như bầu cử.

- Các API tạo nội dung AI ở quy mô lớn có thể phải chịu “điều chỉnh về mặt đạo đức” để ngăn chặn các chiến dịch thông tin sai lệch trên diện rộng.


Một khuôn khổ như vậy sẽ cho chúng ta không gian để xử lý đầu ra của AI theo đúng bản chất của chúng: công cụ mạnh mẽ, không phải là những biểu hiện tùy tiện.

Suy nghĩ cuối cùng: Lời nói cho con người, công cụ cho máy móc

Nếu tôi có vẻ thận trọng, thì đó là vì cuộc tranh luận này có giá trị lớn hơn nhiều so với những lập luận hời hợt về "lời nói là gì". Việc coi đầu ra của AI tạo ra tương đương với lời nói của con người có nguy cơ làm tầm thường hóa mục đích của quyền tự do ngôn luận—một hành động gắn liền với ý định, sự sáng tạo và trách nhiệm giải trình. Tôi tin rằng lời nói vốn là một hoạt động của con người. Nó phát triển nhờ trách nhiệm và sự trao đổi ý tưởng có mục đích. Máy móc không chia sẻ tinh thần đó, ngay cả khi đầu ra của chúng bắt chước của chúng ta.


Ngay khi chúng ta bắt đầu bảo vệ những từ ngữ do máy tạo ra theo cùng luật bảo vệ sự biểu đạt của con người, chúng ta đã làm loãng đi ý nghĩa của quyền tự do ngôn luận. Hãy cùng tôn vinh AI vì bản chất của nó—một công cụ phi thường—nhưng cũng hãy nhận ra phạm vi của nó nên dừng lại ở đâu. Xét cho cùng, quyền tự do ngôn luận là về nhân loại, chứ không phải về xác suất trong mạng nơ-ron.


Vậy, ý kiến của bạn thế nào? Chúng ta đang trên con dốc trơn trượt, hay tôi chỉ đang quá thận trọng? Hãy cho tôi biết—chỉ cần đảm bảo rằng bạn, chứ không phải một con bot AI nào đó, là người tham gia :)

L O A D I N G
. . . comments & more!

About Author

Ashish Anil Pawar HackerNoon profile picture
Ashish Anil Pawar@pawarashishanil
Ashish Pawar is an experienced software engineer skilled in creating scalable software and AI-enhanced solutions across data-driven and cloud applications, with a proven track record at companies like Palantir, Goldman Sachs and WHOOP.

chuyên mục

BÀI VIẾT NÀY CŨNG CÓ MẶT TẠI...