paint-brush
Vicuna: Nó so sánh với Llama, Alpaca và ChatGPT như thế nào?từ tác giả@mikeyoung44
5,321 lượt đọc
5,321 lượt đọc

Vicuna: Nó so sánh với Llama, Alpaca và ChatGPT như thế nào?

từ tác giả Mike Young10m2023/08/08
Read on Terminal Reader

dài quá đọc không nổi

So sánh Vicuna với các LLM thay thế như ChatGPT, LLaMA và Alpaca. Đâu là mô hình AI tốt nhất để xây dựng ứng dụng trò chuyện?
featured image - Vicuna: Nó so sánh với Llama, Alpaca và ChatGPT như thế nào?
Mike Young HackerNoon profile picture
0-item

Là người sáng lập công ty khởi nghiệp về AI, bạn có thể biết các mô hình ngôn ngữ lớn như ChatGPT đã có tác động như thế nào trong việc thúc đẩy AI đàm thoại.


Tuy nhiên, với chi phí cấp phép thương mại, vấn đề kiểm duyệt, hiệu suất bị suy giảm, lo ngại về quyền riêng tư và hộp đen, những mô hình độc quyền này vẫn nằm ngoài tầm với của nhiều công ty khởi nghiệp.


Đây là lúc một dự án nguồn mở có tên Vicuna ra đời. Được phát triển bởi một nhóm các nhà nghiên cứu từ các tổ chức như Stanford, Vicuna là một mô hình hội thoại nguồn mở đạt được hơn 90% chất lượng của ChatGPT. Điều này làm cho nó trở thành một sự thay thế thú vị cho các mô hình khép kín như GPT-4.


Đăng ký hoặc theo dõi tôi trên Twitter để biết thêm nội dung như thế này!


Trong bài viết này, chúng ta sẽ khám phá Vicuna là gì, cách thức hoạt động, khả năng của nó và cách bạn có thể tận dụng nó với tư cách là người sáng lập AI. Chúng ta sẽ xem cách nó so sánh với các đối thủ cạnh tranh như ChatGPT và mô hình LLaMA cơ bản.


Tôi cũng sẽ chia sẻ một số mẹo và hướng dẫn hữu ích mà bạn có thể làm theo để biết thêm thông tin về các khía cạnh cụ thể của mô hình.


Chúng tôi sẽ tập trung vào Vicuna-13b cho bài viết này, nhưng có rất nhiều mẫu Vicuna có kích thước khác nhau để bạn thử. Hãy bắt đầu nào!


Lưu ý: Vicuna không phải là mô hình duy nhất tinh chỉnh LLaMA để trò chuyện. Xem hướng dẫn của chúng tôi về cách sử dụng LLaMA v2 , Alpaca LLaMA-v2-chat cho các ứng dụng đàm thoại.

Tổng quan về Vicuna

Trong thế giới AI đàm thoại, gần đây chúng ta đã chứng kiến sự tiến bộ đáng kinh ngạc với các mô hình như ChatGPT thể hiện khả năng ngôn ngữ tự nhiên vượt trội. Tuy nhiên, là một mô hình độc quyền với tất cả các vấn đề được mô tả ở trên, ChatGPT vẫn là một lựa chọn tồi đối với nhiều nhà phát triển.


Vì vậy, cần có các mô hình cởi mở và dễ tiếp cận hơn để có thể trao quyền cho sự đổi mới trong các ứng dụng đàm thoại.


Đây là lúc Vicuna xuất hiện. Được phát triển bởi các nhà nghiên cứu từ các tổ chức hàng đầu như Stanford, Berkeley và MBZUAI, Vicuna đại diện cho AI đàm thoại mở tiên tiến.


Nó được tạo ra bằng cách tinh chỉnh mô hình LLaMA trên dữ liệu hộp thoại được quản lý, thể hiện sức mạnh của việc học chuyển đổi từ mô hình nền tảng nguồn mở.


Mặc dù có kích thước nhỏ hơn so với ChatGPT, Vicuna có chất lượng hội thoại phù hợp và vượt trội hơn đáng kể so với các mô hình mở khác.


Nhưng Vicuna không chỉ nói về công nghệ. Điều làm cho nó thực sự có tác động là tính khả dụng của nó theo giấy phép nghiên cứu phi thương mại. Điều này mở ra khả năng tiếp cận với AI đàm thoại tiên tiến mà trước đây chỉ giới hạn ở các công ty công nghệ lớn.


Cuối cùng thì chúng ta cũng có một mô hình mở có thể cung cấp năng lượng cho thế hệ chatbot tiếp theo, trợ lý ảo, công cụ tìm kiếm đàm thoại và các ứng dụng sáng tạo khác.


Lời hứa của Vicuna đã được chứng minh thông qua các dự án thú vị thúc đẩy nó. Ví dụ: MiniGPT4 đã sử dụng Vicuna để xây dựng một trợ lý ảo thông minh, LLaVA đã tạo một công cụ tìm kiếm đàm thoại với nó và ToolLLaMA khai thác khả năng của Vicuna để tạo nội dung bằng ngôn ngữ tự nhiên.


Và, tất nhiên, một ngày nào đó bạn có thể thêm dự án của riêng mình vào danh sách này!


Đối với các nhà phát triển và công ty khởi nghiệp AI, Vicuna đại diện cho một cơ hội mới thú vị. Khả năng cao, tính khả dụng miễn phí và giấy phép nghiên cứu dễ dãi của nó cho phép tạo mẫu nhanh các ứng dụng đàm thoại.


Thay vì bị kiểm soát bởi quyền truy cập vào các mô hình độc quyền, giờ đây các công ty khởi nghiệp có thể xác thực và xây dựng sản phẩm bằng AI đàm thoại tiên tiến. Sân chơi vừa được san bằng.


Vì vậy, tóm lại, Vicuna hứa hẹn sẽ dân chủ hóa quyền truy cập vào trí thông minh đàm thoại hàng đầu. Sự xuất hiện của nó thể hiện một cột mốc quan trọng trong việc tạo ra các mô hình AI mở hỗ trợ đổi mới.


Đối với bất kỳ công ty khởi nghiệp nào muốn tận dụng AI đàm thoại, Vicuna chắc chắn là một dự án đáng chú ý!

Vicuna được tạo ra như thế nào? Điều gì làm cho nó đặc biệt?

Câu chuyện về Vicuna bắt đầu với LLaMA, một mô hình ngôn ngữ mã nguồn mở được phát triển bởi Meta AI. Mặc dù có khả năng nhưng LLaMA không có khả năng trò chuyện cố hữu, chủ yếu tập trung vào ngôn ngữ hơn là nghệ thuật trò chuyện.


Các nhà nghiên cứu từ các tổ chức bao gồm Stanford, Berkeley và MBZUAI đã bắt đầu thay đổi điều này. Mục tiêu của họ là tạo ra một mô hình đàm thoại nguồn mở cạnh tranh với các chatbot độc quyền như ChatGPT.


Nhân tiện, sự khác biệt giữa mô hình AI được đào tạo để xử lý và phân tích văn bản (như LLaMA) so với mô hình chuyên dùng để trò chuyện (như Vicuna) là gì? Có một vài yếu tố chính phân biệt hai:


  • Kiến trúc - Các mô hình hội thoại như Vicuna có cấu trúc bộ mã hóa-giải mã được tối ưu hóa cho hội thoại. Bộ mã hóa bối cảnh hóa lịch sử hội thoại và đầu vào của người dùng hiện tại. Bộ giải mã sau đó tạo ra một phản hồi có liên quan. Các mô hình ngôn ngữ chung như LLaMA thiếu kiến trúc chuyên biệt này.


  • Mục tiêu đào tạo - Các mô hình như Vicuna được tinh chỉnh để tối đa hóa hiệu suất cụ thể trong các nhiệm vụ đàm thoại. Điều này liên quan đến đào tạo về bộ dữ liệu hộp thoại để tối ưu hóa các số liệu hội thoại. LLaMA được đào tạo tổng quát hơn cho văn bản, không chuyên biệt cho hộp thoại.


  • Khả năng nhiều lượt - Các mô hình hội thoại cần xử lý các cuộc hội thoại nhiều lượt, duy trì ngữ cảnh và tính nhất quán trên nhiều trao đổi. Các mô hình văn bản chung đánh giá một đầu vào tại một thời điểm.


  • Tính tương tác - AI đàm thoại cần tương tác trôi chảy với người dùng, trả lời các câu hỏi tiếp theo và làm rõ. Việc đánh giá văn bản còn thụ động hơn, thiếu tính tương tác với người dùng.


  • Đánh giá - Các mô hình hội thoại yêu cầu đánh giá phức tạp hơn ngoài số liệu văn bản, kiểm tra các phẩm chất như tính nhất quán, sắc thái và khả năng xử lý khéo léo các phản hồi không phù hợp.


Trong khi một mô hình ngôn ngữ chung như LLaMA tập trung nhiều hơn vào phân tích và tạo văn bản, không có các yêu cầu cụ thể đối với các tác nhân đối thoại, thì mục tiêu của AI đàm thoại về cơ bản phức tạp hơn so với đánh giá văn bản thụ động.


Để đạt được mục tiêu đó, các nhà nghiên cứu đã tạo ra Vicuna đã tinh chỉnh LLaMA trên hơn 70.000 cuộc trao đổi hộp thoại ChatGPT giữa con người với nhau, chuyên biệt hóa mô hình hội thoại và dạy cho mô hình đó các đặc điểm tự nhiên của văn bản trong ngữ cảnh hội thoại.


Việc tinh chỉnh này rất quan trọng để mang lại cho phiên bản LLaMA của họ tính thông minh đàm thoại mà trước đây nó không có. Thông qua đào tạo lặp đi lặp lại trên dữ liệu hộp thoại, LLaMA đã được chuyển đổi thành Vicuna, một bộ biến áp mã hóa-giải mã được tối ưu hóa cho các cuộc hội thoại nhiều lượt.


Những nỗ lực của họ đã làm việc tốt như thế nào?

Into the Arena: Đánh giá Vicuna dựa trên các mô hình AI trò chuyện thay thế

Để đánh giá khả năng của Vicuna, các nhà nghiên cứu đã thử nghiệm nó trên 200 gợi ý đàm thoại khác nhau. Để đánh giá thêm, họ đã sử dụng mô hình GPT-4 để đánh giá một cách tương đối các câu trả lời của Vicuna.


Kết quả đã chứng minh rằng Vicuna đạt được hơn 90% chất lượng của ChatGPT về khả năng đàm thoại, mặc dù có kích thước nhỏ hơn. Nó vượt trội hơn đáng kể so với mô hình LLaMA ban đầu.


Bằng cách kết hợp tối ưu hóa kiến trúc với tinh chỉnh chuyên biệt trên dữ liệu hộp thoại của con người, các nhà nghiên cứu đã cải tiến thành công LLaMA thành một mô hình hội thoại mã nguồn mở ngang bằng với các chatbot độc quyền.


Chúng ta hãy xem một bài kiểm tra trực tiếp làm ví dụ, được lấy từ trang web chính thức của dự án .

Ví dụ thay thế cho Vicuna/ChatGPT

Ví dụ về thử thách đối đầu giữa Vicuna và các mô hình của đối thủ cạnh tranh, trong trường hợp này, sử dụng ChatGPT-3.5 làm giải pháp thay thế tiềm năng.


Trang web dự án có một tập hợp các nhiệm vụ mẫu, trong đó cả Vicuna-13b và các mẫu cạnh tranh đều được yêu cầu đối đầu trực tiếp. Sau đó, mô hình GPT-4 được sử dụng làm giám khảo để cho điểm từng mô hình và nêu lý do của mô hình đó.


Điều này tạo ra một số so sánh thực sự mở rộng tầm mắt. Một ví dụ được cung cấp trong hình trên. Một thách thức khác là thử thách này, được hiển thị bên dưới:


  • Thể loại: Nhập vai
  • Câu hỏi: Bạn sẽ giới thiệu mình là một hiệp sĩ thời trung cổ như thế nào trong bữa tiệc hoàng gia?


Phản hồi của LLaMA-13b:

"Tôi là một hiệp sĩ dũng cảm, trung thành với nhà vua. Tôi sẽ cố gắng hết sức để bảo vệ danh dự của ngài và bảo vệ đất nước của ngài. (Khập khiễng! Được GPT-4 chấm 7/10, theo ý kiến của tôi là rất hào phóng.)"


Vicuna-13b:

***"**Là một hiệp sĩ thời trung cổ, tôi sẽ tự giới thiệu mình tại một bữa tiệc hoàng gia với một cái cúi đầu thật sâu và một bài phát biểu đầy kính trọng, thừa nhận nguồn gốc khiêm tốn và lòng trung thành của tôi với vương miện. Tôi sẽ nói những điều như:

"Thưa quý vị và các quý cô, tôi là một hiệp sĩ khiêm tốn, đã thề sẽ phục vụ và bảo vệ vương quốc. Tôi xuất thân từ một dòng dõi lâu đời của các chiến binh đã chiến đấu để bảo vệ vương quốc này qua nhiều thế hệ. Tôi rất vinh dự được có mặt ở đây hôm nay, trước sự chứng kiến của công ty đáng kính như vậy, và tôi hy vọng nhận được sự tin tưởng và tôn trọng của bạn bằng hành động và hành động của tôi. Tôi xin cam kết thanh gươm, tấm khiên và mạng sống của mình để phục vụ nhà vua và thần dân của tôi."

Sau đó, tôi sẽ ngồi vào chỗ của mình trong bữa tiệc, sẵn sàng lắng nghe và học hỏi từ lời khuyên khôn ngoan của những người giỏi hơn tôi, và phục vụ họ bằng mọi cách có thể."


Ồ! Cách phản ứng tốt hơn từ Vicuna. Đây là lý do của GPT-4 giải thích điều gì làm cho Vicuna trở thành một giải pháp thay thế ưu việt cho LLaMA.


Trợ lý 1 [LLaMA] đã đưa ra một câu trả lời ngắn gọn và phù hợp, nhưng nó thiếu chi tiết và trang trọng như lời giới thiệu của một hiệp sĩ thời trung cổ. Mặt khác, Trợ lý 2 [Vicuna] đã đưa ra một câu trả lời toàn diện và có cấu trúc tốt hơn, bao gồm một bài phát biểu đầy kính trọng thể hiện sự khiêm tốn, lòng trung thành và sự cống hiến của hiệp sĩ cho vương quốc. Câu trả lời này phù hợp hơn với bối cảnh của một bữa tiệc hoàng gia và thể hiện sự hiểu biết tốt hơn về vai trò và nghi thức của hiệp sĩ thời trung cổ.


Mặc dù các LLM không phải là thẩm phán không thể sai lầm của các LLM khác, nhưng con người cũng vậy. Tôi nghĩ rằng việc sử dụng AI để đánh giá và đánh giá AI là một cách khá nhất quán và có thể mở rộng để phân xử lựa chọn thay thế nào là tốt nhất.


Bạn nên xem một số câu trả lời và nhiệm vụ của các thí sinh khác trên trang LMSYS.org .

Hãy tự mình thử: Cách xây dựng một Chatbot cơ bản với Vicuna

Bây giờ chúng ta đã thấy cách mô hình so sánh với một số lựa chọn thay thế, hãy xem cách chúng ta có thể xây dựng một chatbot đơn giản mà chúng ta có thể tương tác từ dòng lệnh của mình. Các bước trong hướng dẫn được cung cấp ở đây có thể được mở rộng hơn nữa để bạn có thể tiếp tục và xây dựng chatbot của riêng mình cho dự án AI của mình!

Bước 1: Thiết lập

Cài đặt Node.js : Đảm bảo rằng Node.js đã được cài đặt trên hệ thống của bạn.


Tạo một thư mục dự án : Chạy phần sau trong thiết bị đầu cuối của bạn:

 mkdir my-chatbot cd my-chatbot npm init -y npm install replicate


Đặt mã thông báo API của bạn : Thay thế your_api_token_here bằng mã thông báo API thực tế của bạn:

 export REPLICATE_API_TOKEN=your_api_token_here

Bước 2: Viết mã Chatbot

Tạo một tệp có tên chatbot.js và thêm đoạn mã sau:

 const Replicate = require("replicate"); const replicate = new Replicate({ auth: process.env.REPLICATE_API_TOKEN, }); async function generateResponse(prompt) { const output = await replicate.run( "replicate/vicuna-13b:version_hash_here", { input: { prompt: prompt }, } ); return output.items[0]; } const readline = require('readline'); const rl = readline.createInterface({ input: process.stdin, output: process.stdout }); function askQuestion() { rl.question('You: ', async (userInput) => { const botResponse = await generateResponse(userInput); console.log(`Bot: ${botResponse}`); askQuestion(); }); } askQuestion();

Thay thế version_hash_here bằng phiên bản băm chính xác cho kiểu máy Vicuna 13b.

Bước 3: Chạy Chatbot

Chạy chatbot bằng cách thực hiện:

 node chatbot.js


Bây giờ bạn có thể gửi tin nhắn đến chatbot của mình thông qua dòng lệnh!

Bạn không muốn xây dựng chatbot của riêng mình? Bạn có thể sử dụng bản trình diễn này để đánh giá Vicuna thực hiện như thế nào.

Trang chi tiết mô hình cho Vicuna-13b-v1.3 bao gồm một vài bản trình diễn mà bạn có thể sử dụng để khám phá mô hình. Đây là một ứng dụng được nhúng để bạn dùng thử (bạn cũng có thể sử dụng liên kết này để truy cập nếu liên kết bên dưới không có sẵn).


Bản demo này do zeno-ml xây dựng, cho phép bạn so sánh các mô hình và thông số bổ sung để xem Vicuna hoạt động tốt như thế nào so với các đối thủ cạnh tranh như LLaMA, GPT2 và MPT đồng thời thay đổi nhiệt độ hoặc các thông số khác.

Hạn chế của Vicuna

Trong khi các công nghệ đàm thoại đã phát triển nhanh chóng, các mô hình vẫn phải đối mặt với những thách thức quan trọng.


  • Một vấn đề là nền tảng kiến thức. Các tác nhân đàm thoại thiếu nền tảng đầy đủ về kiến thức thực tế, khiến họ có xu hướng đưa ra những câu trả lời nghe có vẻ hợp lý nhưng không chính xác. Nhiều nền tảng hơn trong thế giới thực có thể cải thiện độ chính xác.


  • Khả năng lý luận là một lĩnh vực khác để cải thiện. Việc thực hiện suy luận logic, suy luận nhân quả và các phép toán vẫn còn khó khăn đối với chatbot. Khả năng suy luận của họ vẫn còn hạn chế.


  • Việc đánh giá chất lượng đàm thoại của các hệ thống AI trên quy mô lớn cũng đặt ra những khó khăn. Các giải pháp hiện tại như yêu cầu một thẩm phán AI riêng biệt có sai sót. Phát triển các khung đánh giá nghiêm ngặt là một vấn đề mở.


  • Ngoài ra, các vấn đề sai lệch và an toàn vẫn tồn tại do phụ thuộc vào dữ liệu đào tạo không hoàn hảo. Các mô hình hội thoại đôi khi có thể hoạt động không phù hợp hoặc không an toàn. Quản lý dữ liệu đào tạo tốt hơn là rất quan trọng.


  • Việc điều chỉnh chatbot cho người dùng cụ thể và các trường hợp sử dụng vẫn còn nhiều thách thức. Cần cá nhân hóa và tùy chỉnh nhiều hơn cho các miền khác nhau. Bạn không thể làm điều này ra khỏi hộp một cách dễ dàng.


Mặc dù đã đạt được nhiều tiến bộ, nhưng những hạn chế này nêu bật những lĩnh vực chính cần cải thiện.


Nâng cao nền tảng kiến thức, lập luận, đánh giá, dữ liệu đào tạo, tùy chỉnh và hiệu quả triển khai có thể cho phép trí thông minh đàm thoại ở cấp độ tiếp theo với các mô hình như Vicuna.

Kết luận: Sử dụng Vicuna AI làm giải pháp thay thế mã nguồn mở cho ChatGPT, LLaMA và các LLM khác

Sự phát triển của Vicuna cho thấy tiến bộ đầy hứa hẹn trong việc thúc đẩy AI đàm thoại nguồn mở.


Bằng cách tinh chỉnh kiến trúc mô hình LLaMA và phương pháp đào tạo dành riêng cho các ứng dụng hộp thoại, các nhà nghiên cứu đã có thể tạo ra một tác nhân đàm thoại có sẵn miễn phí cạnh tranh với các lựa chọn thay thế độc quyền hàng đầu.


Tuy nhiên, vẫn còn nhiều việc phải làm để giải quyết những hạn chế xung quanh lý luận, đánh giá, tùy chỉnh và các lĩnh vực khác. Mặc dù các mô hình như Vicuna đạt được kết quả cao trên nhiều điểm chuẩn, nhưng chúng không tái tạo đầy đủ cuộc trò chuyện toàn diện của con người.


Nghiên cứu liên tục về việc sắp xếp các mô hình này sẽ rất quan trọng.


Tuy nhiên, Vicuna đại diện cho một bước tiến có giá trị trong việc dân chủ hóa quyền truy cập vào trí thông minh đàm thoại tiên tiến nhất.


Đối với các công ty khởi nghiệp và nhà phát triển đang xây dựng chatbot, trợ lý và các ứng dụng khác, các tùy chọn nguồn mở như Vicuna cung cấp các khả năng đáng hoan nghênh mà không cần giấy phép thương mại hạn chế.


Nguồn gốc và chi tiết kỹ thuật đằng sau Vicuna cung cấp những hiểu biết hữu ích về các phương pháp đào tạo chuyên biệt dành cho AI đàm thoại. Khi nghiên cứu tiếp tục, chúng ta có thể mong đợi thấy những đổi mới hơn nữa dựa trên các phương pháp này.


Các tác giả đằng sau Vicuna đã đóng góp quan trọng vào việc cung cấp nguồn mở một tác nhân đối thoại có khả năng như vậy.


Mặc dù vẫn cần nhiều tiến bộ hơn, Vicuna cho thấy những kết quả có ý nghĩa có thể đến từ việc phát triển các mô hình trò chuyện cởi mở. Đối với cộng đồng AI, nó đại diện cho một bước đi đầy hứa hẹn, không phải là đích đến cuối cùng.


Với việc tiếp tục phát triển các công nghệ này, tiềm năng phía trước vẫn còn rất thú vị.


Đăng ký hoặc theo dõi tôi trên Twitter để biết thêm nội dung như thế này!

Đọc thêm và tài nguyên

Bạn có thể thấy những bài viết khác này hữu ích trong quá trình xây dựng chatbot tối ưu cho sản phẩm hoặc dự án mới của mình.



Cũng được xuất bản ở đây