Gracias por los valiosos aportes y comentarios de Zhenyang en Upshot, Fran en Giza, Ashely en Neuronets, Matt en Valence y Dylan en Pond.
Esta investigación busca analizar áreas críticas de la IA que son relevantes para los desarrolladores en el campo y explorar las potenciales oportunidades emergentes en la convergencia de las tecnologías Web3 y AI.
Los avances actuales en las aplicaciones descentralizadas (DApps) centradas en la IA destacan varias herramientas y conceptos instrumentales:
La fusión de Web3 y la IA está generando un inmenso interés en la criptoesfera a medida que los desarrolladores exploran rigurosamente la infraestructura de IA adaptada al dominio criptográfico. El objetivo es dotar a los contratos inteligentes de funcionalidades de inteligencia sofisticadas, que requieren una atención meticulosa al manejo de datos, la precisión del modelo, las necesidades computacionales, las complejidades de implementación y la integración de blockchain.
Las primeras soluciones diseñadas por los pioneros de Web3 abarcan:
A pesar de la floreciente infraestructura, la aplicación real de la IA en las DApps sigue siendo limitada. Los tutoriales comunes solo arañan la superficie, y a menudo ilustran interacciones básicas de la API OpenAI dentro de entornos front-end, sin aprovechar completamente las ofertas únicas de descentralización y verificabilidad de blockchain.
A medida que evoluciona el panorama, anticipamos desarrollos significativos con muchas infraestructuras de IA cripto-nativas que pasarán de redes de prueba a un estado operativo completo en los próximos meses.
En este contexto dinámico, nuestra exploración profundizará en el arsenal de herramientas disponibles en la infraestructura de IA cripto-nativa, preparando a los desarrolladores para avances inminentes similares a los momentos innovadores de GPT-3.5 en el ámbito de las criptomonedas.
Aprovechar los modelos robustos de OpenAI, como GPT-4-vision, GPT-4-turbo y GPT-4o, ofrece ventajas convincentes para quienes buscan desarrollar DApps de IA de vanguardia. Estas poderosas herramientas brindan las capacidades fundamentales necesarias para ser pioneros en aplicaciones y soluciones avanzadas dentro del floreciente panorama de AI x Web3.
La integración de OpenAI en aplicaciones descentralizadas (dApps) es un tema candente entre los desarrolladores que pueden llamar a la API de OpenAI desde oráculos o interfaces. RedPill está a la vanguardia de esta integración, ya que democratiza el acceso a los mejores modelos de IA al ofrecer un servicio API agregado. Este servicio fusiona varias contribuciones de la API de OpenAI y las presenta bajo un mismo techo, brindando beneficios como una mayor asequibilidad, mejor velocidad y acceso global integral sin las limitaciones que normalmente plantea OpenAI.
Los problemas inherentes que a menudo enfrentan los desarrolladores de criptomonedas, como tokens por minuto (TPM) limitados o acceso restringido al modelo debido a límites geográficos, pueden generar obstáculos importantes. RedPill aborda estas preocupaciones directamente al dirigir las solicitudes de los desarrolladores a contribuyentes individuales dentro de su red, evitando efectivamente cualquier restricción directa de OpenAI. La siguiente tabla describe las marcadas diferencias en capacidades y costos entre RedPill y OpenAI:
| pastilla roja | Abierto AI |
---|---|---|
TPM | Ilimitado | 30k - 450k para la mayoría de los usuarios |
Precio | 5 dólares por cada 10 millones de solicitudes más incentivos simbólicos | 5 dólares por cada 10 millones de solicitudes |
RPM (solicitudes por minuto) | Ilimitado | 500 - 5k para la mayoría de los usuarios |
Además de utilizar la API OpenAI, los desarrolladores pueden alojar y ejecutar sus modelos en redes GPU descentralizadas. Plataformas populares como io.net , Aethir y Akash permiten a los desarrolladores crear y administrar sus clústeres de GPU, lo que les permite implementar los modelos más impactantes, ya sean propietarios o de código abierto.
Estas redes GPU descentralizadas aprovechan la potencia informática de contribuyentes individuales o pequeños centros de datos, lo que garantiza una variedad de especificaciones de máquinas, más ubicaciones de servidores y menores costos. Esta estructura única ayuda a los desarrolladores a realizar ambiciosos experimentos de IA con un presupuesto manejable. Sin embargo, la naturaleza descentralizada puede resultar en funciones limitadas, confiabilidad del tiempo de actividad y privacidad de los datos, como se muestra en la siguiente comparación:
| Red GPU | Proveedor de GPU centralizado |
---|---|---|
SLA (tiempo de actividad) | Variable | 99,99%+ |
SDK de integración y automatización | Limitado | Disponible |
Servicios de almacenamiento | Limitado | Integral (estrategias de copia de seguridad, archivos, objetos, almacenamiento en bloque y recuperación) |
Servicios de bases de datos | Limitado | Ampliamente disponible |
Gestión de identidad y acceso | Limitado | Disponible |
Cortafuegos | Limitado | Disponible |
Servicios de monitoreo/administración/alerta | Limitado | Disponible |
Cumplimiento de GDPR, CCPA (Privacidad de datos) | Limitado | Cumplimiento parcial |
El reciente aumento del interés en torno a las redes GPU eclipsa incluso la locura por la minería de Bitcoin. Algunos factores clave contribuyen a este fenómeno:
A medida que el panorama de la IA y la informática descentralizada continúa evolucionando, herramientas como RedPill y las redes de GPU descentralizadas están revolucionando la forma en que los desarrolladores superan las barreras tradicionales y abren nuevas posibilidades en el desarrollo de la IA.
Recomendación : io.net ofrece una experiencia de usuario sencilla, especialmente adecuada para desarrolladores Web2. Si es flexible con sus acuerdos de nivel de servicio (SLA), io.net podría ser una opción económica a considerar.
Una red de inferencia forma la columna vertebral de la infraestructura de IA criptonativa, diseñada para respaldar los modelos de IA en el procesamiento de datos y la toma de predicciones o decisiones inteligentes. En el futuro, está preparado para manejar miles de millones de operaciones de inferencia de IA. Muchas capas de blockchain (Capa 1 o Capa 2) ya brindan a los desarrolladores la capacidad de invocar operaciones de inferencia de IA directamente en la cadena. Los líderes en este mercado incluyen plataformas como Ritual, Vanna y Fetch.ai .
Estas redes varían según varios factores, incluido el rendimiento (latencia, tiempo de cálculo), los modelos admitidos, la verificabilidad y el precio (costos de consumo e inferencia), así como la experiencia general del desarrollador.
En un escenario ideal, los desarrolladores deberían poder integrar perfectamente capacidades de inferencia de IA personalizadas en cualquier aplicación, con soporte integral para diversas pruebas y un esfuerzo de integración mínimo.
La red de inferencia ofrece todos los elementos de infraestructura necesarios que los desarrolladores necesitan, como generación y validación de pruebas bajo demanda, cálculo de inferencia, retransmisión de inferencia, puntos finales Web2 y Web3, implementación de modelos con un solo clic, monitoreo, interoperabilidad entre cadenas, sincronización de integración y ejecución programada.
Con estas capacidades, los desarrolladores pueden integrar fácilmente la inferencia en sus proyectos blockchain. Por ejemplo, al desarrollar robots comerciales de finanzas descentralizadas (DeFi), se pueden emplear modelos de aprendizaje automático para identificar oportunidades de compra y venta de pares comerciales y ejecutar estrategias en un DEX base.
Lo ideal sería que toda la infraestructura estuviera alojada en la nube, lo que permitiría a los desarrolladores cargar y almacenar sus estrategias modelo en formatos populares como Torch. La red de inferencia se encargaría tanto del almacenamiento como del servicio de modelos para consultas Web2 y Web3.
Una vez que se completa la implementación del modelo, los desarrolladores pueden activar la inferencia del modelo mediante solicitudes de API Web3 o directamente mediante contratos inteligentes. La red de inferencia ejecuta continuamente estrategias comerciales y retroalimenta los resultados a los contratos inteligentes fundamentales. Si se administran fondos comunitarios sustanciales, podría ser necesario demostrar la precisión de la inferencia. Al recibir los resultados de la inferencia, los contratos inteligentes ejecutan automáticamente operaciones basadas en esos resultados.
Si bien la ejecución asincrónica podría, en teoría, ofrecer un mejor rendimiento, puede complicar la experiencia del desarrollador.
En el modelo asincrónico, los desarrolladores envían inicialmente su trabajo a la red de inferencia mediante contratos inteligentes. Una vez que se completa el trabajo, el contrato inteligente de la red devuelve el resultado. Esto divide la programación en dos fases: invocar la inferencia y procesar sus resultados.
Esta separación puede generar complejidades, especialmente con llamadas de inferencia anidadas o manejo lógico extenso.
Además, los modelos asincrónicos pueden resultar difíciles de integrar con los contratos inteligentes existentes, ya que requieren codificación adicional, un manejo exhaustivo de errores y dependencias adicionales.
La sincronización suele ser más sencilla de implementar para los desarrolladores, pero presenta desafíos relacionados con la latencia y el diseño de blockchain. Por ejemplo, cuando se trata de datos de entrada que cambian rápidamente, como el tiempo de bloque o los precios de mercado, los datos pueden quedar obsoletos cuando se completa el procesamiento. Este escenario puede provocar una reversión de las ejecuciones de contratos inteligentes, especialmente cuando se realizan operaciones como el intercambio basado en precios obsoletos.
Valence está abordando estos desafíos centrándose en una infraestructura de inteligencia artificial que funciona de forma asincrónica.
En el panorama actual, la mayoría de las redes de inferencia nuevas como Ritual Network todavía se encuentran en fases de prueba y ofrecen una funcionalidad limitada según su documentación pública. En lugar de proporcionar una infraestructura en la nube para cálculos de IA en cadena, admiten un marco para albergar automáticamente cálculos de IA y, posteriormente, transmitir los resultados a la cadena de bloques.
A continuación se muestra una arquitectura típica utilizada para ejecutar un AIGC NFT: el modelo de difusión genera el NFT y lo carga en Arweave. Luego, la red de inferencia recibe la dirección de Arweave y procede a acuñar el NFT en cadena.
Este modelo requiere que los desarrolladores implementen y alojen la mayor parte de la infraestructura de forma independiente, lo que incluye la gestión de Ritual Nodes con lógica de servicio personalizada, nodos de difusión estables y contratos inteligentes NFT.
Recomendación : las redes de inferencia actuales son complejas de integrar e implementar modelos personalizados. Como muchos no ofrecen verificabilidad en esta etapa, implementar IA en el frontend podría ser una opción más sencilla para los desarrolladores. Para aquellos que requieren verificabilidad, el proveedor de aprendizaje automático Zero Knowledge, Giza, ofrece una alternativa prometedora.
Las redes de agentes simplifican la personalización de agentes para los usuarios. Estas redes consisten en entidades autónomas o contratos inteligentes capaces de ejecutar tareas e interactuar entre sí y con la cadena de bloques de forma autónoma. Actualmente están más centrados en modelos de lenguaje grandes (LLM), como los chatbots GPT diseñados específicamente para comprender Ethereum. Sin embargo, estos chatbots actualmente tienen capacidades limitadas, lo que impide a los desarrolladores crear aplicaciones complejas sobre ellos.
De cara al futuro, las redes de agentes están preparadas para mejorar sus capacidades proporcionando a los agentes herramientas avanzadas, incluido el acceso API externo y funcionalidades de ejecución. Los desarrolladores podrán orquestar flujos de trabajo conectando múltiples agentes especializados, como aquellos centrados en el diseño de protocolos, el desarrollo de Solidity, las revisiones de seguridad del código y la implementación de contratos, utilizando indicaciones y contextos para facilitar la cooperación.
Ejemplos de redes de agentes incluyen Flock.ai , Myshell y Theoriq.
Recomendación : dado que las tecnologías de agentes actuales aún están evolucionando y poseen funcionalidades limitadas, los desarrolladores pueden encontrar herramientas de orquestación más maduras, como Langchain o Llamaindex en el espacio Web2, más efectivas para sus necesidades.
Si bien tanto las redes de agentes como las redes de inferencia sirven para mejorar las capacidades e interacciones en la cadena de bloques, sus funciones principales y su enfoque operativo difieren mucho. Las redes de agentes están orientadas a automatizar las interacciones y ampliar la utilidad de los contratos inteligentes a través de agentes autónomos. Por el contrario, las redes de inferencia se ocupan principalmente de integrar y gestionar análisis de datos basados en IA en la cadena de bloques. Cada uno tiene un propósito único, adaptado a diferentes aspectos de la integración de blockchain y AI.
Las redes de agentes se centran principalmente en modelos de lenguajes grandes (LLM) y proporcionan herramientas de orquestación, como Langchain, para facilitar la integración de estos agentes. Para los desarrolladores, esto significa que no es necesario desarrollar sus propios modelos de aprendizaje automático desde cero. En cambio, la red de inferencia abstrae la complejidad del desarrollo y la implementación del modelo, lo que les permite conectar agentes simplemente utilizando herramientas y contextos apropiados. En la mayoría de los casos, los usuarios finales interactúan directamente con estos agentes, simplificando la experiencia del usuario.
Por el contrario, la red de inferencia forma la columna vertebral operativa de la red de agentes y otorga a los desarrolladores acceso de nivel inferior. A diferencia de las redes de agentes, los usuarios finales no utilizan directamente las redes de inferencia. Los desarrolladores deben implementar sus modelos, que no se limitan a los LLM, y pueden acceder a estos modelos a través de puntos dentro o fuera de la cadena.
Curiosamente, las redes de agentes y las redes de inferencia están comenzando a converger en algunos casos, con productos integrados verticalmente que ofrecen funcionalidades tanto de agente como de inferencia. Esta integración es lógica ya que ambas funciones comparten una infraestructura troncal similar.
Comparación de redes de inferencia y agentes:
| Red de inferencia | Red de agentes |
---|---|---|
Clientes potenciales | Desarrolladores | Usuarios finales/Desarrolladores |
Modelos compatibles | LLM, redes neuronales, modelos de aprendizaje automático tradicionales | Principalmente LLM |
Infraestructura | Soporta diversos modelos | Principalmente admite LLM populares |
Personalización | Amplia adaptabilidad del modelo | Configurable a través de indicaciones y herramientas. |
Proyectos populares | Ritual, Valencia | Rebaño, Myshell, Theoriq, Olas |
A medida que profundizamos en el proceso de desarrollo de modelos, surgen numerosas oportunidades dentro de los campos de web3:
La tendencia hacia la integración vertical es evidente, donde las redes buscan brindar soluciones de ML integrales y multifuncionales desde una única capa computacional. Este enfoque promete una solución todo en uno optimizada para los desarrolladores de Web3 ML, impulsando la integración de las tecnologías AI y blockchain.
La inferencia en cadena, si bien ofrece una verificabilidad excepcional y una integración perfecta con sistemas backend como contratos inteligentes, sigue siendo costosa y lenta. Imagino un enfoque híbrido en el futuro. Es probable que veamos una combinación en la que algunas tareas de inferencia se realizan fuera de la cadena, en el frontend, para lograr eficiencia, mientras que las tareas de inferencia críticas y centradas en decisiones seguirán manejándose en la cadena. Este paradigma ya se aplica en los dispositivos móviles. Aprovechando las capacidades móviles, los modelos más pequeños se ejecutan localmente para obtener respuestas rápidas, mientras que los cálculos más complejos se descargan a la nube, aprovechando modelos de lenguaje (LLM) más grandes.