paint-brush
Đạt được các phản hồi LLM có liên quan bằng cách giải quyết các thách thức chung về thế hệ tăng cường truy xuấttừ tác giả@datastax
504 lượt đọc
504 lượt đọc

Đạt được các phản hồi LLM có liên quan bằng cách giải quyết các thách thức chung về thế hệ tăng cường truy xuất

từ tác giả DataStax4m2024/01/16
Read on Terminal Reader

dài quá đọc không nổi

Chúng tôi xem xét các vấn đề phổ biến có thể phát sinh khi triển khai RAG và tương tác LLM.
featured image - Đạt được các phản hồi LLM có liên quan bằng cách giải quyết các thách thức chung về thế hệ tăng cường truy xuất
DataStax HackerNoon profile picture
0-item
1-item


Phát triển các ứng dụng AI tổng hợp với thế hệ tăng cường truy xuất (RAG) và cơ sở dữ liệu vectơ có thể là thách thức. Bạn thường cần khắc phục sự cố khi triển khai RAG dựa trên cơ sở dữ liệu vectơ để đảm bảo truy xuất được ngữ cảnh liên quan; điều này rất quan trọng vì ngữ cảnh đó sau đó sẽ được đưa vào lời nhắc về mô hình ngôn ngữ lớn để cung cấp kết quả chính xác hơn.


Trong bài viết trước của loạt bài này , chúng ta đã xem xét đường dẫn nhúng, chứa các cơ sở dữ liệu vector với các phần nhúng và xem xét ba lĩnh vực có thể dẫn đến kết quả kém: mô hình nhúng dưới mức tối ưu, chiến lược phân đoạn không hiệu quả và thiếu tính năng lọc siêu dữ liệu.

Ở đây, chúng ta sẽ xem xét sự tương tác thực tế với LLM và kiểm tra một số vấn đề phổ biến có thể dẫn đến kết quả kém: lời nhắc không chính xác và cách tiếp cận tạo không đầy đủ.

Tinh chỉnh nhanh chóng

Ngay cả những chiến lược nhúng và phân đoạn tốt nhất cũng không thể thay thế được nhu cầu về chất lượng kỹ thuật nhanh chóng . Điều này liên quan đến việc làm cho các lời nhắc trở nên rõ ràng, cụ thể hơn và phù hợp hơn với kết quả dự kiến. Cần kiểm tra các định dạng, độ dài và lựa chọn từ vựng đa dạng của lời nhắc để tinh chỉnh quy trình RAG.

Một cái nhìn đơn giản về LLM


Cụ thể, có một số điều bạn nên cân nhắc khi xây dựng lời nhắc cho ứng dụng RAG. Bao gồm các:


Cho LLM biết vai trò của nó: Khi tương tác với các đại lý LLM như ChatGPT, họ sẽ mặc định hoạt động như một chatbot hữu ích. Tuy nhiên, bạn có thể thay đổi bản chất của phản hồi sẽ được tạo bằng cách hướng dẫn LLM hành động theo một cách cụ thể. Ví dụ có thể là những câu như “bạn là luật sư đang đánh giá xem một trong hai bên có vi phạm thỏa thuận hay không” hoặc “bạn là đại lý dịch vụ khách hàng cho một nhà cung cấp dịch vụ internet; công việc của bạn là giúp mọi người khắc phục sự cố Internet của họ” hoặc bất cứ điều gì có ý nghĩa đối với tình huống cụ thể của bạn.


Yêu cầu LLM sử dụng ngữ cảnh được cung cấp một cách rõ ràng : Hãy nói rõ với LLM rằng bạn đang cung cấp ngữ cảnh và bạn muốn phản hồi được tạo phản ánh ngữ cảnh đó. Bạn có thể làm điều này bằng cách nói điều gì đó như “câu trả lời của bạn nên tính đến ngữ cảnh sau đây” theo sau là ngữ cảnh. Sử dụng ví dụ: Trong tình huống vừa đề cập là yêu cầu LLM đóng vai trò là luật sư đánh giá hợp đồng, bạn có thể muốn đưa một số ví dụ vào lời nhắc. Ví dụ: bạn có thể cung cấp ví dụ về hợp đồng quy định thời hạn thanh toán là trong vòng 30 ngày nhưng người mua đã không gửi khoản thanh toán của họ cho đến 40 ngày sau khi hợp đồng được ký và do đó đã vi phạm thỏa thuận. Bạn có thể cung cấp thêm ví dụ về quyền được khắc phục và các cách có thể giải quyết vi phạm hợp đồng.


Chỉ định định dạng đầu ra: Nếu trường hợp sử dụng của bạn yêu cầu đầu ra cụ thể, bạn có thể chỉ định định dạng mà đầu ra được tạo phải tuân thủ. Bạn có thể kết hợp kỹ thuật này cùng với mẹo ở trên để cung cấp các ví dụ giúp LLM hiểu rõ về cách bạn muốn nó phản hồi cũng như những điểm chính của thông tin mà bạn mong đợi trong phản hồi được tạo.


Sử dụng chuỗi suy nghĩ : Đối với các trường hợp sử dụng liên quan đến lý luận để xác định phản hồi thích hợp, bạn có thể cân nhắc sử dụng kỹ thuật gọi là chuỗi suy nghĩ để giúp giải thích các bước mà bạn muốn LLM thực hiện để đi đến phản hồi được tạo. Ví dụ: trong trường hợp hợp đồng pháp lý, bạn có thể muốn hướng dẫn LLM qua các bước hợp lý mà một người sẽ tuân theo để xác định xem điều khoản hợp đồng có bị vi phạm hay không. Ví dụ: khi giải quyết các hợp đồng pháp lý, bạn có thể yêu cầu LLM trước tiên tìm kiếm các điều khoản chỉ định điều khoản thanh toán, sau đó xác định khoảng thời gian người mua phải gửi thanh toán, sau đó tính số ngày từ khi nhận được thanh toán đến khi nhận được thanh toán. ngày hợp đồng được ký kết. Sau đó, nếu việc thanh toán mất nhiều thời gian hơn khung thời gian đã thỏa thuận thì người mua đã vi phạm thỏa thuận.


Việc tận dụng các kỹ thuật này để cải thiện kỹ thuật nhanh chóng của bạn có thể có tác động đáng kể đến chất lượng của các kết quả được tạo ra mà bạn có thể tạo ra trong các ứng dụng RAG của mình. Tuy nhiên, đôi khi bạn sẽ cần sử dụng các kỹ thuật liên quan đến nhiều trao đổi với LLM để đạt được phản hồi có thể chấp nhận được.

Mẫu nâng cao

BÙNG PHÁT

Truy xuất chủ động hướng tới tương lai, hoặc BÙNG PHÁT , là một ví dụ về kỹ thuật RAG nhiều truy vấn liên quan đến việc gọi LLM lặp đi lặp lại với các hướng dẫn tùy chỉnh trong lời nhắc của bạn nhằm yêu cầu LLM cung cấp thêm câu hỏi về các cụm từ khóa sẽ giúp LLM tạo ra câu trả lời tốt hơn. Khi LLM có ngữ cảnh không có khoảng trống, nó sẽ kết thúc với phản hồi cuối cùng. Quá trình này thêm một vòng lặp giữa LLM và tác nhân AI (chatbot AI trong sơ đồ) để tạo điều kiện thuận lợi cho các bước lặp này:

BÙNG PHÁT


Bạn có thể xem ví dụ về cách FLARE hoạt động trong ví dụ về sách dạy nấu ăn LangChain của FLARE .

RAG Fusion

Bằng cách tạo các truy vấn tương tự với truy vấn của người dùng và truy xuất ngữ cảnh có liên quan cho cả truy vấn ban đầu cũng như các truy vấn tương tự được tạo, chúng tôi có thể tăng khả năng chúng tôi đã chọn ngữ cảnh hữu ích nhất để tạo ra kết quả chính xác. Quá trình này được gọi là “sự kết hợp RAG” trông như thế này:

RAG Fusion

Bước quan trọng ở đây là sử dụng hàm xếp hạng đối ứng để tinh chỉnh thêm kết quả ANN nhằm xác định bối cảnh phù hợp nhất để sử dụng nhằm tạo phản hồi.

Phần kết luận

RAG là một cách tiếp cận đơn giản để bắt đầu nhưng thường khiến các nhà phát triển thất vọng với kết quả không đạt yêu cầu vì những lý do không rõ ràng. Mức độ liên quan của đầu ra trong các ứng dụng AI tổng hợp hỗ trợ RAG có thể bị ảnh hưởng bởi một số yếu tố. Bằng cách lựa chọn tỉ mỉ các mô hình nhúng, xây dựng chiến lược phân nhóm và thiết kế lời nhắc, bạn có thể nâng cao đáng kể chất lượng và độ chính xác của các phản hồi được tạo trong các hệ thống được hỗ trợ bởi LLM như ChatGPT. Hy vọng những thủ thuật này sẽ giúp bạn tạo ra nhiều ứng dụng RAG hữu ích hơn, mang lại trải nghiệm và giá trị mà bạn đang hướng tới.


Hãy dùng thử DataStax Astra DB , cơ sở dữ liệu vectơ duy nhất để xây dựng các ứng dụng AI cấp sản xuất trên dữ liệu thời gian thực .


Bởi Chris Latimer, DataStax


Cũng xuất hiện ở đây .