paint-brush
Chuỗi khối là Cỗ máy Chân lý Tối thượng cho AI dựa trên GPT (ChatGPT)từ tác giả@badery
3,228 lượt đọc
3,228 lượt đọc

Chuỗi khối là Cỗ máy Chân lý Tối thượng cho AI dựa trên GPT (ChatGPT)

từ tác giả bader6m2022/12/13
Read on Terminal Reader
Read this story w/o Javascript

dài quá đọc không nổi

Không còn nghi ngờ gì nữa, AI sẽ thay đổi thế giới. Với ChatGPT, nó đã cho công chúng thấy công nghệ này có thể thay đổi sinh kế của họ chỉ sau một đêm như thế nào. Đảm bảo tính toàn vẹn của AI là bước tiếp theo. Việc xác minh dữ liệu liên quan đến nó, ai đã phát triển nó và động cơ/mục tiêu chính xác của nó sẽ rất quan trọng trong việc duy trì các tiêu chuẩn đạo đức và do đó, niềm tin của công chúng vào các mô hình như vậy. Bây giờ nó thực sự bắt đầu giống như web3!
featured image - Chuỗi khối là Cỗ máy Chân lý Tối thượng cho AI dựa trên GPT (ChatGPT)
bader HackerNoon profile picture
0-item

Trừ khi một người đã từng sống dưới một tảng đá theo nghĩa đen (chứ không phải trên đỉnh của một tảng đá), thì có lẽ bạn đã nghe nói về ChatGPT - hệ thống AI dựa trên đối thoại tạo ra những cuộc đối thoại mang tính đột phá, lạc hậu.


Cách trò chuyện cực kỳ của nó khiến người dùng đẩy nó đến giới hạn của nó.


Hầu hết đều kinh ngạc về khả năng viết mã trong thời gian thực hoặc tạo ra các bài luận nguyên bản, không thể sai lầm.


ChatGPT viết mã trong thời gian thực.


Nhìn thoáng qua, ChatGPT khá ấn tượng. Mặc dù công nghệ này đã tồn tại được vài năm, nhưng ngay cả khi các công ty khác đã tung ra các sáng kiến tương tự trong quá khứ, ChatGPT đã có thể có được một triệu người dùng trong vòng sáu ngày.


Từ góc độ sản phẩm, đây chắc chắn là bằng chứng cho thấy ChatGPT đã đáp ứng nhu cầu trên thị trường. Nó rất có thể sẽ thay đổi nền kinh tế biểu diễn mãi mãi, vì về cơ bản, nó cho phép tìm kiếm tương tác trên Google với các kết quả ngắn gọn và khả thi hơn nhiều trong thời gian thực.


https://twitter.com/jdjkelly/status/1598021488795586561


Tuy nhiên, cuộc trò chuyện về AI thường phù hợp với cuộc trò chuyện về đạo đức - nhiều người bắt đầu đặt câu hỏi về những nguy cơ tiềm ẩn của mô hình này dành cho tất cả mọi người.


Như đã trình bày trong quá khứ, con người đã có tiếng xấu với việc dạy AI nói những điều không nên nói ra, chứ đừng nói là nghĩ.


Ở cấp độ triết học hơn, nguồn gốc của sự thật cho ChatGPT là gì?


Còn các hệ thống dựa trên GPT khác trong tương lai thì sao?

Làm cách nào để chúng tôi đảm bảo những thành kiến, bộ dữ liệu và tham số nào đang được tính đến mà không ảnh hưởng đến tính bảo mật của AI?


Những lo ngại này (được viết là “hạn chế”) thực sự được OpenAI thừa nhận trong bài viết của họ giới thiệu ChatGPT , tuy nhiên, không có giải pháp nào được đưa ra để giải quyết những vấn đề này!

Phân tích tóm tắt về ChatGPT

Trước khi giải quyết cuộc nổi dậy của AI chatbot không thể tránh khỏi, hãy cho phép giải thích ngắn gọn về cách thức hoạt động thực sự của nó từ góc nhìn toàn cảnh.


ChatGPT dựa trên GPT-3.5 - một phiên bản GPT-3 tốt hơn, mới hơn một chút.


GPT là viết tắt của Generative Pre-training Transformer 3.


“Đó là một mô hình ngôn ngữ tự hồi quy sử dụng học sâu để tạo ra văn bản giống con người. Đưa ra một văn bản ban đầu làm lời nhắc, nó sẽ tạo ra văn bản tiếp tục lời nhắc đó.” - GPT-3, Wikipedia .


Nói một cách đơn giản hơn, đó là một mô hình xử lý ngôn ngữ, dự đoán được đào tạo đặc biệt để tạo ra các bài kiểm tra mà con người có thể đọc được. Khái niệm này được kiểm tra bằng Thử nghiệm Turing, mục tiêu là văn bản do AI tạo ra phải không thể phân biệt được với văn bản do con người viết.


Phân tích chi tiết hơn về cách hoạt động của ChatGPT từ OpenAI - https://openai.com/blog/chatgpt/


GPT phải cố gắng dự đoán câu trả lời đúng. Khi mô hình đang được đào tạo, nó sẽ tiếp tục điều chỉnh các biến bên trong cho đến khi nhận được câu trả lời chính xác.


Nhiều yếu tố được tính đến khi đào tạo mô hình, chẳng hạn như theo dõi mức độ chú ý của từ - tức là mức độ ảnh hưởng/xếp hạng của từ đó trong câu.


Để biết thêm thông tin về cách nó hoạt động ở cấp độ kỹ thuật hơn, hãy đọc Nghiên cứu của OpenAI tại đây.

ChatGPT là người đầu tiên thực sự mở chức năng này theo cách thân thiện với người dùng cho công chúng, đây vừa là một điều tuyệt vời vừa đáng sợ do sự phát triển theo hình parabol của nó.

Các mối nguy hiểm tiềm ẩn của các mô hình dựa trên GPT

Hầu hết các vấn đề đến từ các AI dựa trên GPT như ChatGPT đều nằm trong câu trích dẫn này:


"Về cốt lõi, GPT-3, giống như các mô hình AI khác, chỉ tốt như dữ liệu mà nó đã được đào tạo và con người tạo ra dữ liệu này. Niềm tin, thành kiến, sai sót và sai lầm mà chúng tôi nắm giữ cũng được phản ánh trong các phản hồi của AI. Và vì các công cụ như ChatGPT được đánh giá là thông minh, khách quan và tự tin, nên chúng tôi có xu hướng tin vào những gì các mô hình này mang lại cho chúng tôi." - Sử dụng AI mạnh mẽ nhất ngày càng đơn giản hơn, Forbes


Vấn đề chính với các mô hình này là dữ liệu được cung cấp. Trước khi một AI trở nên hữu ích, nó phải tiêu thụ, tương tác và kiểm tra hàng tỷ từ và thông số. Các bộ dữ liệu này thường được lọc và sắp xếp để chứa thông tin cụ thể.


Trong trường hợp của ChatGPT, nó lấy dữ liệu từ Internet - điều này cho phép nó có rất nhiều giải pháp khác nhau trong tầm tay (AI có đầu ngón tay không?).


Tuy nhiên, điều này cũng có nghĩa là nó có thể mang lại một số mặt tối của Internet và những thành kiến của nó với nó.


Vấn đề không nằm ở bản thân AI - nó đang theo dõi quá trình đào tạo và thu thập dữ liệu tạo ra nó. Chỉ vì đó là giải pháp *A*, không có nghĩa là nó luôn là giải pháp *RIGHT*! - https://twitter.com/gregisenberg/status/1601934568570949632


Nếu một người có thể theo dõi và theo dõi, với một mức độ chắc chắn và minh bạch, lịch sử đào tạo mô hình theo thời gian, nguồn gốc và hành trình tổng thể của nó, thì có thể đưa ra quyết định tốt hơn nhiều về độ tin cậy của kết quả mà nó tạo ra.


Bằng cách này, giá trị sẽ rõ ràng hơn trong các mô hình tập trung hơn có mục đích cụ thể, động cơ và dữ liệu được quản lý.


Rõ ràng, OpenAI nhận thức được rằng các mô hình có thể bị sai lệch và một nguồn sự thật vững chắc cần phải được thiết lập tại một số điểm.

Và còn công nghệ nào tốt hơn để lưu giữ hồ sơ không thay đổi, minh bạch và theo trình tự thời gian về việc tạo ra AI hơn là sổ cái phân tán, có khả năng chịu lỗi?

Sử dụng sổ cái phân tán để tạo điều kiện thuận lợi cho việc tạo AI


Hầu hết coi AI là một loại “hộp đen” chức năng, trong đó nguồn gốc của dữ liệu, nơi dữ liệu được thu thập, trong hoàn cảnh nào và cách thức hoạt động của nó vẫn chưa được biết.


Tuy nhiên - điều gì sẽ xảy ra nếu bất cứ khi nào một AI mới được tạo ra, mỗi quy trình liên quan đều được gửi lên sổ cái để công chúng xem, để họ biết chính xác cách thức hoạt động của AI dựa trên dữ liệu đã cho?


Chuỗi khối rất tốt trong việc lưu giữ một bản ghi sự thật có thể kiểm chứng, không thiên vị.


Rõ ràng, điều này sẽ chỉ dành cho các AI hướng tới công chúng như ChatGPT. Mọi thứ từ tập dữ liệu, người tham gia, các tham số thiết yếu, cho đến bất kỳ xu hướng tiềm ẩn nào đều có thể được lưu giữ dưới dạng hiện diện trên chuỗi.


Khi AI dần dần đào tạo và trở nên tốt hơn, nó cũng được cập nhật theo thời gian thực vào sổ cái. Bằng cách này, ngay cả những nhà phát triển chịu trách nhiệm đào tạo nó cũng có thể có được cái nhìn rõ ràng, theo trình tự thời gian về chính xác cách thức hoạt động của AI về mặt hiệu suất.


Quan trọng hơn, sổ cái sẽ cung cấp nguồn sự thật trực tiếp được hỗ trợ bởi nguồn gốc sáng tạo của AI.


Nói cách khác - chúng tôi giữ cho AI chịu trách nhiệm giải trình từ quá trình tạo ra nó, theo dõi nguồn gốc, động cơ của nó và mức độ ảnh hưởng chính xác của nó từ cấp độ đào tạo.


Nó sẽ đảm bảo tính nhất quán và nguồn gốc của dữ liệu. Tính toàn vẹn của dữ liệu luôn ở mức thấp. Sử dụng một hệ thống lưu giữ hồ sơ, chẳng hạn như chuỗi khối, chúng tôi có thể theo dõi từng byte dữ liệu về nguồn gốc của nó cho AI.


Điều này sẽ giúp xác định bất kỳ thành kiến nào có thể khó phát hiện trong hộp đen của AI và ngăn chặn việc truyền dữ liệu sai có thể đến từ một AI “độc hại”.


Hãy nghĩ về nó giống như một dấu kiểm xác minh. Nếu AI có dấu kiểm thì nó hợp lệ. Nếu không, thì có lý do để nghi ngờ tính hợp pháp của nó.


Như được hiển thị trên các chuỗi khối như Polkadot , các tổ chức cũng hoàn toàn có thể bỏ phiếu về các quy tắc và cơ chế nhất định trên chuỗi. Một khái niệm tương tự có thể được thực hiện cho AI, nơi các cuộc bỏ phiếu có thể diễn ra để xác định các yếu tố khác nhau liên quan đến tính hợp pháp, tính toàn vẹn của dữ liệu, v.v.


Các phiếu bầu liên quan đến AI và tập dữ liệu của nó có thể xảy ra trên chuỗi - thậm chí để thay đổi hướng hoặc ảnh hưởng của AI.


https://polkadot.network/blog/gov2-polkadots-next-generation-of-decentralised-governance/

Xét cho cùng, những mô hình này chỉ tốt khi dữ liệu được cung cấp cho chúng.


Theo thời gian, dữ liệu có thể trở nên phức tạp. Ai kiểm soát nguồn, nói gì đến việc nguồn thay đổi thành thứ gì đó có thể gây hại?


Đúng là OpenAI có API kiểm duyệt - một AI khác phát hiện những thứ được coi là có hại, đây là một bước đi đúng hướng rất có giá trị.
https://openai.com/blog/new-and-improved-content-moderation-tooling/


Tuy nhiên, ngay cả đối với bằng chứng thực tế, tức là lịch sử, dữ liệu dựa trên Internet cần được xem xét và kiểm tra nhiều lần.


Khi ngày càng có nhiều công chúng phụ thuộc vào các dịch vụ này, việc đảm bảo thông tin đáng tin cậy sẽ rất quan trọng.

Sự kết luận

Không còn nghi ngờ gì nữa, AI sẽ thay đổi thế giới. Với ChatGPT, nó đã cho công chúng thấy công nghệ này có thể thay đổi sinh kế của họ chỉ sau một đêm như thế nào.


Đảm bảo tính toàn vẹn của AI là bước tiếp theo. Việc xác minh dữ liệu liên quan đến nó, ai đã phát triển nó và động cơ/mục tiêu chính xác của nó sẽ rất quan trọng trong việc duy trì các tiêu chuẩn đạo đức và do đó, niềm tin của công chúng vào các mô hình như vậy.


Bây giờ nó thực sự bắt đầu giống như web3!