Bạn tình cờ xem được một video hấp dẫn trên YouTube hướng dẫn bạn cách tạo chatbot của riêng mình. Sau một giờ thử nghiệm trong Visual Studio, bạn có một dự án nhỏ tuyệt vời để giới thiệu với đồng nghiệp của mình.
Tuy nhiên, khi sếp của bạn yêu cầu triển khai AI trong toàn công ty, bạn nhận ra rằng bằng chứng về khái niệm này chỉ phù hợp với máy tính xách tay; nó không thực tế cho sản xuất.
Trong xu hướng công nghệ trí tuệ nhân tạo này, chỉ một tỷ lệ nhỏ các công ty đã làm được bất cứ điều gì trên quy mô lớn với AI tổng quát. Một máy tính xách tay POC có thể hoạt động với quy mô gigabyte
Nhưng điều đó sẽ thay đổi nhanh chóng và khi điều đó xảy ra, tôi và các đồng nghiệp của tôi tại DataStax và dự án Apache Cassandra® đã sẵn sàng sử dụng nó—sử dụng công nghệ đã được chứng minh để đẩy các ranh giới vượt xa một gigabyte dữ liệu vectơ trong một trung tâm dữ liệu.
Cuối cùng,
Các cửa hàng véc-tơ sẽ là chìa khóa để thỏa mãn cơn thèm nhớ ngấu nghiến này.
Chúng ta càng sử dụng nhiều dữ liệu vectơ, thì quy mô chắc chắn sẽ là yếu tố hạn chế càng trở nên rõ ràng. Nhưng đây là nơi Cassandra thực sự tỏa sáng. Chúng tôi tin tưởng vào tuyên bố về kho lưu trữ véc-tơ đạt mức petabyte vì nó được xây dựng trên Cassandra.
Vâng, cùng một Cassandra mà người dùng của chúng tôi đang chạy với các cụm có kích thước petabyte. Trong 12 năm qua, chúng tôi, với tư cách là một dự án nguồn mở, đã xây dựng và tối ưu hóa một hệ thống cho khối lượng công việc dữ liệu giao dịch lớn nhất trên thế giới.
Lưu trữ và tìm kiếm vectơ chỉ là một tính năng nữa để thêm vào một phần công nghệ đáng kinh ngạc.
Như một phần thưởng, một trong những lợi thế quan trọng nhất của việc sử dụng Cassandra làm kho lưu trữ vectơ là cơ chế sao chép tích hợp sẵn của nó. Điều này cho phép sao chép tích cực-hoạt động trên toàn cầu, có nghĩa là dữ liệu của bạn có thể tồn tại và được cập nhật theo thời gian thực ở nhiều nơi. Trong thời đại dữ liệu lớn, đây là một siêu năng lực đối với nhiều tổ chức.
Trong thời đại của trí tuệ nhân tạo AI, đây sẽ là vấn đề sống còn khi các tác nhân hành động độc lập và toàn cầu. Lưu trữ dữ liệu nhất quán ở mọi nơi cần thiết, với độ linh hoạt cần thiết để làm cho dữ liệu có giá phải chăng trên quy mô lớn.
Bây giờ, bạn có thể hỏi, "Ai thực sự cần một kho lưu trữ vectơ có thể lưu trữ một petabyte?" Nếu lịch sử đã dạy chúng ta bất cứ điều gì, thì nhu cầu về dung lượng lưu trữ dữ liệu tăng nhanh hơn nhiều so với dự đoán của bất kỳ ai.
Sử dụng vectơ đã nhanh chóng trở thành cách chủ yếu để kết hợp dữ liệu doanh nghiệp vào các mô hình nền tảng. Mặc dù về mặt lý thuyết, việc tinh chỉnh có thể đạt được kết quả tương tự, nhưng nhiều doanh nghiệp đã phát hiện ra rằng việc kết hợp các vectơ mang lại những lợi thế đáng kể.
Nó cung cấp nguồn gốc dữ liệu, điều này đặc biệt quan trọng trong các lĩnh vực được quản lý như chăm sóc sức khỏe và luật, đồng thời giúp tránh sự phức tạp của việc điều chỉnh mô hình.
Thế hệ tăng cường truy xuất (
Nếu bạn đang tìm kiếm kết quả tốt nhất, thì việc kết hợp LLM với tìm kiếm véc-tơ là cách tốt nhất.
Các LLM được cải thiện không làm giảm nhu cầu về vectơ. Với mức tiêu thụ tài nguyên máy tính, mạng và lưu trữ, LLM đang trở thành công ty dẫn đầu về chi tiêu cho cơ sở hạ tầng. Họ sẽ bỏ qua cơ sở hạ tầng dẫn đầu hiện tại mà một số người gọi là cơ sở hạ tầng "giá đắt": hồ dữ liệu doanh nghiệp.
Tuy nhiên, việc kết hợp LLM với tìm kiếm véc tơ có thể mang lại hiệu suất và chất lượng tối ưu với chi phí hợp lý.
Chỉ còn là vấn đề thời gian trước khi chúng ta cần các kho lưu trữ vectơ cỡ petabyte dựa trên nhiều thứ mà chúng ta sẽ cần nhúng. Một yếu tố quan trọng trong hiệu quả của tìm kiếm tương tự là chất lượng của thuật toán nhúng được sử dụng, cùng với việc lưu trữ và truy xuất hiệu quả.
Không phải là hệ thống hiệu quả cho đến khi có quá nhiều dữ liệu. Hệ thống phải hoạt động hiệu quả vượt xa điểm bạn dùng hết dữ liệu để cung cấp cho nó.
ChatGPT đã thu hút sự chú ý của mọi người và tạo ra một lượng lớn suy đoán “nếu như”, nhưng cuối cùng, nó là một sản phẩm thể hiện một lớp kiến trúc dữ liệu mới. LLM sẽ tiếp tục cải thiện, nhưng những gì bạn làm với LLM mới là thứ tạo ra giá trị.
Các chuyên gia trong lĩnh vực đang mong đợi đã được
Trí tuệ tổng hợp nhân tạo (AGI)
Các tác nhân AI tự trị phân tán
Một trong hai điều này sẽ gây ra những căng thẳng tài nguyên khổng lồ và kết hợp lại có thể gây ra nhiều rắc rối cho các tổ chức chạy theo giới hạn. Các đại lý cũng giống như con người: họ càng biết nhiều thì càng có thể đưa ra quyết định tốt hơn.
Nếu bạn có một đại lý đặt vé máy bay đơn giản, hãy xem xét tất cả những điều liên quan cần thu hồi ngay lập tức. Không chỉ thay đổi lịch trình và những thứ như điều kiện thời tiết mà kinh nghiệm có được sau khi đặt nhiều chuyến bay. Đợi đã — kinh nghiệm?
Các đại lý du lịch của con người có kinh nghiệm sâu sắc khi làm việc với một hệ thống hỗn loạn và trải nghiệm đó có thể được mô tả như một thứ: ký ức. Các tác nhân AI sẽ trở nên có giá trị hơn khi họ hiểu rõ hơn về nhiệm vụ của mình và những ký ức đó sẽ được lưu trữ dưới dạng nhúng.
Chúng tôi không muốn các đặc vụ của mình gặp phải những vấn đề giống như trong phim
Vì vậy, lời khuyên của tôi? Bắt đầu suy nghĩ về các tác nhân AI và cách bạn sẽ mở rộng chúng ngay hôm nay. Đừng đợi đến ngày mai, tuần sau hoặc khi bạn gặp trở ngại không thể tránh khỏi đó. Thiết lập cho mình thành công ngay bây giờ.
Lập kế hoạch cho sự tăng trưởng và khả năng mở rộng. Đừng đặt mình vào tình thế buộc phải thực hiện một cuộc di cư lớn sau này. Tôi đã tham gia vào một số dự án di chuyển dữ liệu khổng lồ luôn bắt đầu bằng câu: “Chà, chúng tôi không nghĩ rằng mình sẽ cần nhiều quy mô hơn.”
Cassandra là mã nguồn mở và miễn phí sử dụng. Nếu bạn không muốn chạy một cụm lớn,
Và đối với những người đang xem xét các đường xu hướng và cố gắng lên kế hoạch cho bước đi tiếp theo, các tác nhân AI là điều bạn cần cân nhắc. Tương lai của AI là rất rộng lớn và rất thú vị. Nhưng để sẵn sàng cho nó, chúng ta cần chuẩn bị ngay hôm nay.
Tìm hiểu về các khuôn khổ như
Hãy cùng nhau mở ra tương lai của AI, mỗi lần lưu trữ một vectơ quy mô petabyte.
Bởi Patrick McFadin, DataStax