paint-brush
Không gian AI đông đúc vẫn còn chỗ cho một thiên tài nữatừ tác giả@glaze
576 lượt đọc
576 lượt đọc

Không gian AI đông đúc vẫn còn chỗ cho một thiên tài nữa

từ tác giả Glaze11m2024/07/15
Read on Terminal Reader

dài quá đọc không nổi

Nghiên cứu này tìm cách giải mã các lĩnh vực quan trọng trong AI có liên quan đến các nhà phát triển trong lĩnh vực này. Nó khám phá những cơ hội tiềm năng trong sự hội tụ của công nghệ Web3 và AI. Nghiên cứu được thực hiện bởi Zhenyang tại Upshot, Ashehot, Fran tại Neuronets, Matt tại Valence và Dylan tại Pond.
featured image - Không gian AI đông đúc vẫn còn chỗ cho một thiên tài nữa
Glaze HackerNoon profile picture
0-item

Cảm ơn những ý kiến đóng góp và phản hồi quý giá từ Zhenyang tại Upshot, Fran tại Giza, Ashely tại Neuronets, Matt tại Valence và Dylan tại Pond.

Nghiên cứu này tìm cách giải mã các lĩnh vực quan trọng trong AI có liên quan đến các nhà phát triển trong lĩnh vực này và khám phá các cơ hội phát triển tiềm năng trong sự hội tụ của công nghệ Web3 và AI.

TL;DR

Những tiến bộ hiện tại trong các ứng dụng phi tập trung (DApps) tập trung vào AI làm nổi bật một số công cụ và khái niệm công cụ:

  • Truy cập OpenAI phi tập trung, Mạng GPU: Sự phát triển nhanh chóng và mở rộng của AI, cùng với tiềm năng ứng dụng rộng lớn của nó, khiến nó trở thành một lĩnh vực nóng hơn đáng kể so với khai thác Bitcoin trước đây. Sự tăng trưởng này được củng cố bởi nhu cầu về các mẫu GPU đa dạng và sự phân bổ địa lý chiến lược của chúng.
  • Mạng suy luận và mạng đại lý: Mặc dù các mạng này có chung cơ sở hạ tầng nhưng điểm trọng tâm của chúng lại khác nhau. Mạng suy luận chủ yếu phục vụ các nhà phát triển có kinh nghiệm để triển khai mô hình mà không nhất thiết yêu cầu GPU cao cấp cho các mô hình không phải LLM. Ngược lại, các mạng tác nhân tập trung vào LLM hơn, yêu cầu các nhà phát triển tập trung vào kỹ thuật nhanh chóng và tích hợp các tác nhân khác nhau, luôn đòi hỏi phải sử dụng GPU tiên tiến.
  • Dự án cơ sở hạ tầng AI: Các dự án này tiếp tục phát triển, cung cấp các tính năng mới và chức năng nâng cao đầy hứa hẹn cho các ứng dụng trong tương lai.
  • Các dự án gốc tiền điện tử: Nhiều dự án trong số này vẫn đang trong giai đoạn thử nghiệm, phải đối mặt với các vấn đề về độ ổn định, thiết lập phức tạp và chức năng hạn chế trong khi vẫn cần thời gian để thiết lập thông tin xác thực bảo mật và quyền riêng tư của chúng.
  • Các lĩnh vực chưa được khám phá: Giả sử AI DApps sẽ tác động đáng kể đến thị trường, một số lĩnh vực vẫn chưa được khám phá, bao gồm giám sát, cơ sở hạ tầng liên quan đến RAG, mô hình gốc Web3, đại lý phi tập trung với dữ liệu và API gốc tiền điện tử cũng như mạng đánh giá.
  • Xu hướng tích hợp dọc: Các dự án cơ sở hạ tầng đang ngày càng hướng tới việc cung cấp các giải pháp toàn diện, toàn diện cho các nhà phát triển AI DApp.
  • Dự đoán tương lai kết hợp: Tương lai có thể có sự kết hợp giữa suy luận giao diện người dùng cùng với các tính toán trên chuỗi, cân bằng các cân nhắc về chi phí với khả năng xác minh.

Giới thiệu về Web3 x AI

Sự kết hợp giữa Web3 và AI đang tạo ra sự quan tâm to lớn đến lĩnh vực tiền điện tử khi các nhà phát triển khám phá nghiêm ngặt cơ sở hạ tầng AI được thiết kế riêng cho miền tiền điện tử. Mục đích là để đưa các hợp đồng thông minh vào các chức năng thông minh phức tạp, đòi hỏi sự chú ý tỉ mỉ đến việc xử lý dữ liệu, độ chính xác của mô hình, nhu cầu tính toán, độ phức tạp khi triển khai và tích hợp chuỗi khối.


Các giải pháp ban đầu do những người tiên phong Web3 đưa ra bao gồm:

  • Mạng GPU nâng cao
  • Dữ liệu tiền điện tử chuyên dụng và ghi nhãn dữ liệu Cộng đồng
  • Mô hình đào tạo cộng đồng
  • Quá trình suy luận và đào tạo AI có thể kiểm chứng
  • Cửa hàng đại lý tổng hợp


Mặc dù cơ sở hạ tầng đang phát triển nhưng ứng dụng AI thực tế trong DApps vẫn còn hạn chế. Các hướng dẫn phổ biến chỉ sơ lược, thường minh họa các tương tác API OpenAI cơ bản trong môi trường giao diện người dùng mà không tận dụng đầy đủ các dịch vụ phân cấp và xác minh độc đáo của blockchain.

Khi bối cảnh phát triển, chúng tôi dự đoán sẽ có những bước phát triển đáng kể với nhiều cơ sở hạ tầng AI gốc tiền điện tử chuyển từ mạng thử nghiệm sang trạng thái hoạt động đầy đủ trong những tháng tới.


Trong bối cảnh năng động này, hoạt động khám phá của chúng tôi sẽ đi sâu vào kho công cụ có sẵn trong cơ sở hạ tầng AI gốc tiền điện tử, chuẩn bị cho các nhà phát triển những tiến bộ sắp xảy ra giống như những khoảnh khắc đột phá GPT-3.5 trong lĩnh vực tiền điện tử.

RedPill: Trao quyền cho AI phi tập trung

Việc tận dụng các mô hình mạnh mẽ của OpenAI như GPT-4-vision, GPT-4-turbo và GPT-4o mang lại những lợi thế hấp dẫn cho những ai muốn phát triển AI DApps tiên tiến. Những công cụ mạnh mẽ này cung cấp những khả năng nền tảng cần thiết để đi tiên phong trong các ứng dụng và giải pháp nâng cao trong bối cảnh AI x Web3 đang phát triển.

Tích hợp OpenAI vào các ứng dụng phi tập trung (dApps) là một chủ đề nóng trong số các nhà phát triển, những người có thể gọi API OpenAI từ oracle hoặc giao diện người dùng. RedPill đi đầu trong việc tích hợp này vì nó dân chủ hóa quyền truy cập vào các mô hình AI hàng đầu bằng cách cung cấp dịch vụ API tổng hợp. Dịch vụ này kết hợp các đóng góp API OpenAI khác nhau và trình bày chúng dưới một mái nhà, mang lại những lợi ích như khả năng chi trả tăng lên, tốc độ tốt hơn và khả năng truy cập toàn cầu toàn diện mà không có những hạn chế thường được đặt ra bởi OpenAI.


Các vấn đề cố hữu mà các nhà phát triển tiền điện tử thường gặp phải, như giới hạn số token mỗi phút (TPM) hoặc quyền truy cập mô hình bị hạn chế do ranh giới địa lý, có thể dẫn đến những rào cản đáng kể. RedPill giải quyết trực tiếp những mối lo ngại này bằng cách định tuyến các yêu cầu của nhà phát triển tới từng người đóng góp trong mạng của họ, bỏ qua mọi hạn chế trực tiếp từ OpenAI một cách hiệu quả. Bảng dưới đây nêu ra sự khác biệt rõ ràng về khả năng và chi phí giữa RedPill và OpenAI:


thuốc đỏ

OpenAI

TPM

Vô hạn

30k - 450k cho hầu hết người dùng

Giá

5 USD cho mỗi 10 triệu yêu cầu cộng với ưu đãi mã thông báo

5 USD cho mỗi 10 triệu yêu cầu

RPM (Yêu cầu mỗi phút)

Vô hạn

500 - 5k cho hầu hết người dùng


Mạng GPU

Bên cạnh việc sử dụng API OpenAI, các nhà phát triển có thể lưu trữ và chạy mô hình của họ trên mạng GPU phi tập trung. Các nền tảng phổ biến như io.net , Aethir và Akash cho phép các nhà phát triển tạo và quản lý cụm GPU của họ, cho phép họ triển khai các mô hình có tác động mạnh nhất—dù là mô hình độc quyền hay nguồn mở.


Các mạng GPU phi tập trung này khai thác sức mạnh tính toán từ những người đóng góp riêng lẻ hoặc các trung tâm dữ liệu nhỏ, đảm bảo nhiều thông số kỹ thuật của máy, nhiều vị trí máy chủ hơn và chi phí thấp hơn. Cấu trúc độc đáo này hỗ trợ các nhà phát triển thực hiện các thử nghiệm AI đầy tham vọng trong phạm vi ngân sách có thể quản lý được. Tuy nhiên, bản chất phi tập trung có thể dẫn đến các tính năng hạn chế, độ tin cậy về thời gian hoạt động và quyền riêng tư dữ liệu như trong phần so sánh sau:


Mạng GPU

Nhà cung cấp GPU tập trung

SLA (Thời gian hoạt động)

Biến đổi

99,99%+

SDK tích hợp và tự động hóa

Giới hạn

Có sẵn

Dịch vụ lưu trữ

Giới hạn

Toàn diện (Chiến lược sao lưu, tệp, đối tượng, lưu trữ khối và khôi phục)

Dịch vụ cơ sở dữ liệu

Giới hạn

Phổ biến rộng rãi

Quản lý danh tính và quyền truy cập

Giới hạn

Có sẵn

Bức tường lửa

Giới hạn

Có sẵn

Dịch vụ Giám sát/Quản lý/Cảnh báo

Giới hạn

Có sẵn

Tuân thủ GDPR, CCPA (Quyền riêng tư dữ liệu)

Giới hạn

Tuân thủ một phần

Sự quan tâm gia tăng gần đây xung quanh các mạng GPU đã làm lu mờ cả cơn sốt khai thác Bitcoin. Một số yếu tố chính góp phần gây ra hiện tượng này:


  • Đối tượng đa dạng : Không giống như hoạt động khai thác Bitcoin, vốn chủ yếu thu hút các nhà đầu cơ, mạng GPU thu hút lượng lớn các nhà phát triển AI trung thành hơn và rộng rãi hơn.
  • Yêu cầu phần cứng linh hoạt : Các ứng dụng AI yêu cầu các thông số kỹ thuật GPU khác nhau dựa trên mức độ phức tạp của các tác vụ, giúp mạng phi tập trung trở nên thuận lợi do chúng ở gần người dùng cuối và các vấn đề về độ trễ thấp.
  • Công nghệ tiên tiến : Các mạng này được hưởng lợi từ những đổi mới trong công nghệ chuỗi khối, ảo hóa và cụm tính toán, nâng cao hiệu quả và khả năng mở rộng của chúng.
  • Tiềm năng năng suất cao hơn : ROI trên các tính toán AI được hỗ trợ bởi GPU có thể cao hơn đáng kể so với tính chất cạnh tranh và hạn chế của hoạt động khai thác Bitcoin.
  • Áp dụng ngành : Các công ty khai thác lớn đang đa dạng hóa hoạt động của họ để bao gồm các mô hình GPU dành riêng cho AI để phù hợp và thâm nhập vào thị trường đang phát triển.


Khi bối cảnh AI và điện toán phi tập trung tiếp tục phát triển, các công cụ như RedPill và mạng GPU phi tập trung đang cách mạng hóa cách các nhà phát triển vượt qua các rào cản truyền thống và mở ra những khả năng mới trong phát triển AI.

Khuyến nghị : io.net cung cấp trải nghiệm người dùng đơn giản, đặc biệt phù hợp với các nhà phát triển Web2. Nếu bạn linh hoạt với các thỏa thuận cấp độ dịch vụ (SLA) của mình, io.net có thể là một lựa chọn thân thiện với ngân sách để xem xét.

Mạng suy luận

Mạng suy luận tạo thành xương sống của cơ sở hạ tầng AI gốc tiền điện tử, được thiết kế để hỗ trợ các mô hình AI xử lý dữ liệu và đưa ra dự đoán hoặc quyết định thông minh. Trong tương lai, nó sẵn sàng xử lý hàng tỷ hoạt động suy luận AI. Nhiều lớp blockchain (Lớp 1 hoặc Lớp 2) đã cung cấp khả năng cho các nhà phát triển gọi các hoạt động suy luận AI trực tiếp trên chuỗi. Dẫn đầu trong thị trường này bao gồm các nền tảng như Ritual, Vanna và Fetch.ai .


Các mạng này khác nhau dựa trên một số yếu tố bao gồm hiệu suất (độ trễ, thời gian tính toán), mô hình được hỗ trợ, khả năng xác minh và giá cả (chi phí tiêu thụ và suy luận), cũng như trải nghiệm tổng thể của nhà phát triển.

Mục tiêu

Trong một kịch bản lý tưởng, các nhà phát triển sẽ có thể tích hợp liền mạch các khả năng suy luận AI tùy chỉnh vào bất kỳ ứng dụng nào, với sự hỗ trợ toàn diện cho nhiều bằng chứng khác nhau và nỗ lực tích hợp tối thiểu.


Mạng suy luận cung cấp tất cả các yếu tố cơ sở hạ tầng cần thiết mà nhà phát triển cần, chẳng hạn như tạo và xác thực bằng chứng theo yêu cầu, tính toán suy luận, chuyển tiếp suy luận, điểm cuối Web2 và Web3, triển khai mô hình bằng một cú nhấp chuột, giám sát, khả năng tương tác chuỗi chéo, đồng bộ hóa tích hợp và thực hiện theo lịch trình.



Với những khả năng này, các nhà phát triển có thể dễ dàng tích hợp suy luận vào các dự án blockchain của họ. Ví dụ: khi phát triển bot giao dịch tài chính phi tập trung (DeFi), các mô hình học máy có thể được sử dụng để xác định cơ hội mua và bán cho các cặp giao dịch và thực hiện chiến lược trên Base DEX.


Lý tưởng nhất là tất cả cơ sở hạ tầng sẽ được lưu trữ trên đám mây, cho phép các nhà phát triển tải lên và lưu trữ chiến lược mô hình của họ ở các định dạng phổ biến như Torch. Mạng suy luận sẽ xử lý cả việc lưu trữ và cung cấp các mô hình cho các truy vấn Web2 và Web3.


Sau khi quá trình triển khai mô hình hoàn tất, nhà phát triển có thể kích hoạt suy luận mô hình thông qua các yêu cầu API Web3 hoặc trực tiếp thông qua hợp đồng thông minh. Mạng suy luận liên tục chạy các chiến lược giao dịch và cung cấp kết quả cho các hợp đồng thông minh nền tảng. Nếu quản lý quỹ cộng đồng đáng kể, việc chứng minh tính chính xác của suy luận có thể là cần thiết. Khi nhận được kết quả suy luận, hợp đồng thông minh sẽ tự động thực hiện giao dịch dựa trên kết quả đó.


Không đồng bộ hóa và đồng bộ hóa

Mặc dù về mặt lý thuyết, việc thực thi không đồng bộ có thể mang lại hiệu suất tốt hơn nhưng nó có thể làm phức tạp trải nghiệm của nhà phát triển.


Trong mô hình không đồng bộ, ban đầu các nhà phát triển gửi công việc của họ tới mạng suy luận thông qua hợp đồng thông minh. Sau khi công việc hoàn thành, hợp đồng thông minh của mạng sẽ trả về kết quả. Điều này chia việc lập trình thành hai giai đoạn: gọi suy luận và xử lý kết quả của nó.



Sự tách biệt này có thể dẫn đến sự phức tạp, đặc biệt với các lệnh gọi suy luận lồng nhau hoặc xử lý logic mở rộng.



Hơn nữa, các mô hình không đồng bộ có thể gặp khó khăn khi tích hợp với các hợp đồng thông minh hiện có, yêu cầu mã hóa bổ sung, xử lý lỗi rộng rãi và bổ sung các phụ thuộc.

Đồng bộ hóa thường dễ thực hiện hơn đối với các nhà phát triển, nhưng nó đặt ra những thách thức liên quan đến độ trễ và thiết kế chuỗi khối. Ví dụ: khi xử lý dữ liệu đầu vào thay đổi nhanh chóng như thời gian khối hoặc giá thị trường, dữ liệu có thể trở nên lỗi thời khi quá trình xử lý hoàn tất. Tình huống này có thể khiến việc thực thi hợp đồng thông minh bị hủy bỏ, đặc biệt khi thực hiện các hoạt động như hoán đổi dựa trên giá đã lỗi thời.



Valence đang giải quyết những thách thức này bằng cách tập trung vào cơ sở hạ tầng AI hoạt động không đồng bộ.

Thực tế

Trong bối cảnh hiện tại, hầu hết các mạng suy luận mới như Ritual Network vẫn đang trong giai đoạn thử nghiệm và cung cấp chức năng hạn chế theo tài liệu công khai của họ. Thay vì cung cấp cơ sở hạ tầng đám mây để tính toán AI trên chuỗi, họ hỗ trợ một khuôn khổ để tự lưu trữ các tính toán AI và sau đó chuyển kết quả sang chuỗi khối.


Đây là kiến trúc điển hình được sử dụng để chạy AIGC NFT: Mô hình khuếch tán tạo NFT và tải nó lên Arweave. Mạng suy luận sau đó nhận được địa chỉ Arweave và tiến hành đúc NFT trên chuỗi.



Mô hình này yêu cầu các nhà phát triển triển khai và lưu trữ hầu hết cơ sở hạ tầng một cách độc lập, bao gồm quản lý Nút nghi thức với logic dịch vụ tùy chỉnh, nút khuếch tán ổn định và hợp đồng thông minh NFT.


Khuyến nghị : Mạng suy luận hiện tại rất phức tạp để tích hợp và triển khai các mô hình tùy chỉnh. Vì nhiều người không cung cấp khả năng xác minh ở giai đoạn này nên việc triển khai AI trên giao diện người dùng có thể là một lựa chọn đơn giản hơn cho các nhà phát triển. Đối với những người yêu cầu khả năng xác minh, nhà cung cấp Zero Knowledge Machine Learning, Giza, đưa ra một giải pháp thay thế đầy hứa hẹn.

Mạng lưới đại lý

Mạng đại lý đơn giản hóa việc tùy chỉnh các đại lý cho người dùng. Các mạng này bao gồm các thực thể tự trị hoặc hợp đồng thông minh có khả năng thực hiện các nhiệm vụ và tương tác với nhau và chuỗi khối một cách tự động. Họ hiện đang tập trung hơn vào các mô hình ngôn ngữ lớn (LLM), chẳng hạn như các chatbot GPT được thiết kế đặc biệt để hiểu Ethereum. Tuy nhiên, các chatbot này hiện bị hạn chế về năng lực, hạn chế các nhà phát triển xây dựng các ứng dụng phức tạp trên chúng.



Nhìn về phía trước, các mạng đại lý sẵn sàng nâng cao khả năng của mình bằng cách cung cấp cho các đại lý các công cụ nâng cao, bao gồm các chức năng thực thi và truy cập API bên ngoài. Các nhà phát triển sẽ có thể điều phối quy trình công việc bằng cách kết nối nhiều tác nhân chuyên biệt—chẳng hạn như những tác nhân tập trung vào thiết kế giao thức, phát triển Solidity, đánh giá bảo mật mã và triển khai hợp đồng—sử dụng lời nhắc và bối cảnh để tạo điều kiện hợp tác.



Ví dụ về mạng đại lý bao gồm Flock.ai , Myshell và Theoriq.


Khuyến nghị : Vì các công nghệ tác nhân hiện tại vẫn đang phát triển và có các chức năng hạn chế nên các nhà phát triển có thể tìm thấy các công cụ điều phối hoàn thiện hơn như Langchain hoặc Llamaindex trong không gian Web2 hiệu quả hơn cho nhu cầu của họ.

Sự khác biệt giữa Mạng đại lý và Mạng suy luận

Mặc dù cả mạng đại lý và mạng suy luận đều nhằm mục đích nâng cao khả năng và tương tác trên blockchain, nhưng chức năng cốt lõi và trọng tâm hoạt động của chúng khác nhau rất nhiều. Mạng đại lý hướng tới việc tự động hóa các tương tác và mở rộng tiện ích của hợp đồng thông minh thông qua các đại lý tự trị. Ngược lại, mạng suy luận chủ yếu quan tâm đến việc tích hợp và quản lý các phân tích dữ liệu do AI điều khiển trên blockchain. Mỗi cái phục vụ một mục đích riêng, được điều chỉnh cho phù hợp với các khía cạnh khác nhau của tích hợp blockchain và AI.

Mạng đại lý chủ yếu tập trung vào các mô hình ngôn ngữ lớn (LLM) và cung cấp các công cụ điều phối, chẳng hạn như Langchain, để tạo điều kiện thuận lợi cho việc tích hợp các tác nhân này. Đối với các nhà phát triển, điều này có nghĩa là không cần phải phát triển mô hình học máy của riêng họ từ đầu. Thay vào đó, sự phức tạp của việc phát triển và triển khai mô hình được mạng suy luận loại bỏ, cho phép chúng kết nối các tác nhân một cách đơn giản bằng cách sử dụng các công cụ và bối cảnh thích hợp. Trong hầu hết các trường hợp, người dùng cuối tương tác trực tiếp với các tác nhân này, đơn giản hóa trải nghiệm người dùng.


Ngược lại, mạng suy luận tạo thành xương sống hoạt động của mạng đại lý, cấp cho các nhà phát triển quyền truy cập cấp thấp hơn. Không giống như mạng tác nhân, mạng suy luận không được người dùng cuối trực tiếp sử dụng. Các nhà phát triển phải triển khai các mô hình của họ—không giới hạn ở LLM—và họ có thể truy cập các mô hình này thông qua các điểm offchain hoặc onchain.


Điều thú vị là, mạng tác nhân và mạng suy luận đang bắt đầu hội tụ trong một số trường hợp, với các sản phẩm tích hợp theo chiều dọc đang nổi lên cung cấp cả chức năng tác nhân và suy luận. Sự tích hợp này là hợp lý vì cả hai chức năng đều có chung một đường trục cơ sở hạ tầng tương tự.


So sánh mạng suy luận và mạng đại lý:


Mạng suy luận

Mạng lưới đại lý

Khách hàng mục tiêu

Nhà phát triển

Người dùng cuối/Nhà phát triển

Các mẫu được hỗ trợ

LLM, Mạng thần kinh, mô hình ML truyền thống

Chủ yếu là LLM

Cơ sở hạ tầng

Hỗ trợ các mô hình đa dạng

Chủ yếu hỗ trợ LLM phổ biến

Khả năng tùy chỉnh

Khả năng thích ứng mô hình rộng

Có thể định cấu hình thông qua lời nhắc và công cụ

Dự án phổ biến

Nghi thức, Hóa trị

Đàn, Myshell, Theoriq, Olas

Không gian cho những đổi mới thiên tài tiếp theo

Khi chúng tôi nghiên cứu sâu hơn về quy trình phát triển mô hình, sẽ có rất nhiều cơ hội xuất hiện trong các lĩnh vực web3:

  • Bộ dữ liệu : Việc chuyển đổi dữ liệu blockchain thành bộ dữ liệu sẵn sàng cho ML là rất quan trọng. Các dự án như Giza đang có những bước tiến bằng cách cung cấp các bộ dữ liệu liên quan đến DeFi chất lượng cao. Tuy nhiên, việc tạo ra các bộ dữ liệu dựa trên biểu đồ, thể hiện các tương tác blockchain một cách khéo léo hơn, vẫn là một lĩnh vực cần phát triển.
  • Lưu trữ mô hình : Đối với các mô hình lớn, việc lưu trữ, phân phối và tạo phiên bản hiệu quả là rất cần thiết. Những người đổi mới trong lĩnh vực này bao gồm Filecoin, AR và 0g.
  • Đào tạo mô hình : Đào tạo mô hình phi tập trung và có thể kiểm chứng vẫn là một thách thức. Các thực thể như Gensyn, Bittensor và Flock đang có những tiến bộ đáng kể.
  • Giám sát : Cơ sở hạ tầng hiệu quả là cần thiết để giám sát việc sử dụng mô hình offchain và onchain, giúp các nhà phát triển xác định và khắc phục các vấn đề hoặc thành kiến trong mô hình của họ.
  • Cơ sở hạ tầng RAG : Với thế hệ được tăng cường Retriever, nhu cầu về tính toán và lưu trữ riêng tư, hiệu quả sẽ tăng lên. Firstbatch và Bagel là những ví dụ về các dự án giải quyết những nhu cầu này.
  • Mô hình Web3 chuyên dụng : Các mô hình phù hợp rất cần thiết cho các trường hợp sử dụng Web3 cụ thể, chẳng hạn như phát hiện gian lận hoặc dự đoán giá. Chẳng hạn, Pond đang phát triển các mạng thần kinh đồ thị định hướng blockchain (GNN).
  • Mạng lưới đánh giá : Sự phát triển của các tác nhân đòi hỏi phải có cơ chế đánh giá mạnh mẽ. Các nền tảng như Neuronets đóng vai trò then chốt trong việc cung cấp các dịch vụ như vậy.
  • Đồng thuận : Bằng chứng cổ phần (PoS) truyền thống có thể không phù hợp với các nhiệm vụ định hướng AI do tính phức tạp của chúng. Ví dụ, Bittensor đã phát triển một mô hình đồng thuận để thưởng cho các nút đóng góp những hiểu biết sâu sắc về AI có giá trị.

Triển vọng tới tương lai

Xu hướng tích hợp theo chiều dọc là điều hiển nhiên, trong đó các mạng tìm cách cung cấp các giải pháp ML toàn diện, đa chức năng từ một lớp tính toán duy nhất. Cách tiếp cận này hứa hẹn một giải pháp hợp lý, tất cả trong một dành cho các nhà phát triển Web3 ML, thúc đẩy sự tích hợp giữa công nghệ AI và blockchain.

Suy luận trên chuỗi, mặc dù cung cấp khả năng xác minh đặc biệt và tích hợp liền mạch với các hệ thống phụ trợ như hợp đồng thông minh, nhưng vẫn tốn kém và chậm. Tôi hình dung ra một cách tiếp cận kết hợp trong tương lai. Chúng ta có thể thấy một sự kết hợp trong đó một số nhiệm vụ suy luận được thực hiện ngoại tuyến, trên giao diện người dùng, để đạt hiệu quả, trong khi các nhiệm vụ suy luận quan trọng, tập trung vào quyết định sẽ tiếp tục được xử lý trên chuỗi. Mô hình này đã được áp dụng trong thực tế với các thiết bị di động. Tận dụng khả năng của thiết bị di động, các mô hình nhỏ hơn chạy cục bộ để có phản hồi nhanh, trong khi các tính toán phức tạp hơn được chuyển lên đám mây, tận dụng Mô hình ngôn ngữ (LLM) lớn hơn.