paint-brush
Los abarrotados espacios de IA todavía tienen espacio para un genio máspor@glaze
576 lecturas
576 lecturas

Los abarrotados espacios de IA todavía tienen espacio para un genio más

por Glaze11m2024/07/15
Read on Terminal Reader

Demasiado Largo; Para Leer

Esta investigación busca analizar áreas críticas de la IA que son relevantes para los desarrolladores en el campo. Explora las oportunidades potenciales en la convergencia de las tecnologías Web3 y AI. La investigación fue realizada por Zhenyang en Upshot, Ashehot, Fran en Neuronets, Matt en Valence y Dylan en Pond.
featured image - Los abarrotados espacios de IA todavía tienen espacio para un genio más
Glaze HackerNoon profile picture
0-item

Gracias por los valiosos aportes y comentarios de Zhenyang en Upshot, Fran en Giza, Ashely en Neuronets, Matt en Valence y Dylan en Pond.

Esta investigación busca analizar áreas críticas de la IA que son relevantes para los desarrolladores en el campo y explorar las potenciales oportunidades emergentes en la convergencia de las tecnologías Web3 y AI.

TL;DR

Los avances actuales en las aplicaciones descentralizadas (DApps) centradas en la IA destacan varias herramientas y conceptos instrumentales:

  • Acceso descentralizado a OpenAI, red GPU: el rápido y expansivo crecimiento de la IA, junto con su vasto potencial de aplicaciones, lo convierte en un sector significativamente más activo que lo que alguna vez fue la minería de Bitcoin. Este crecimiento está respaldado por la necesidad de diversos modelos de GPU y su distribución geográfica estratégica.
  • Redes de inferencia y agentes: si bien estas redes comparten una infraestructura similar, sus puntos de enfoque divergen. Las redes de inferencia atienden principalmente a desarrolladores experimentados para la implementación de modelos, sin requerir necesariamente GPU de alta gama para modelos que no son LLM. Por el contrario, las redes de agentes, que están más centradas en LLM, requieren que los desarrolladores se concentren en la ingeniería rápida y la integración de varios agentes, lo que siempre requiere el uso de GPU avanzadas.
  • Proyectos de infraestructura de IA: estos proyectos continúan evolucionando, ofreciendo nuevas características y prometiendo funcionalidades mejoradas para aplicaciones futuras.
  • Proyectos cripto-nativos: muchos de ellos todavía se encuentran en la fase de prueba, enfrentando problemas de estabilidad, configuraciones complejas y funcionalidades limitadas, mientras se toman tiempo para establecer sus credenciales de seguridad y privacidad.
  • Áreas no descubiertas: Suponiendo que las DApps de IA tendrán un impacto significativo en el mercado, varias áreas siguen sin explorarse, incluido el monitoreo, la infraestructura relacionada con RAG, los modelos nativos Web3, los agentes descentralizados con API y datos cripto-nativos y las redes de evaluación.
  • Tendencias de integración vertical: los proyectos de infraestructura apuntan cada vez más a proporcionar soluciones integrales e integrales para los desarrolladores de AI DApp.
  • Predicciones de futuro híbridas: el futuro probablemente depare una combinación de inferencia frontal junto con cálculos en cadena, equilibrando las consideraciones de costos con la verificabilidad.

Introducción a Web3 x IA

La fusión de Web3 y la IA está generando un inmenso interés en la criptoesfera a medida que los desarrolladores exploran rigurosamente la infraestructura de IA adaptada al dominio criptográfico. El objetivo es dotar a los contratos inteligentes de funcionalidades de inteligencia sofisticadas, que requieren una atención meticulosa al manejo de datos, la precisión del modelo, las necesidades computacionales, las complejidades de implementación y la integración de blockchain.


Las primeras soluciones diseñadas por los pioneros de Web3 abarcan:

  • Redes GPU mejoradas
  • Datos criptográficos dedicados y etiquetado de datos comunitarios
  • Modelado capacitado por la comunidad
  • Procesos verificables de inferencia y entrenamiento de IA
  • Tiendas de agentes integrales


A pesar de la floreciente infraestructura, la aplicación real de la IA en las DApps sigue siendo limitada. Los tutoriales comunes solo arañan la superficie, y a menudo ilustran interacciones básicas de la API OpenAI dentro de entornos front-end, sin aprovechar completamente las ofertas únicas de descentralización y verificabilidad de blockchain.

A medida que evoluciona el panorama, anticipamos desarrollos significativos con muchas infraestructuras de IA cripto-nativas que pasarán de redes de prueba a un estado operativo completo en los próximos meses.


En este contexto dinámico, nuestra exploración profundizará en el arsenal de herramientas disponibles en la infraestructura de IA cripto-nativa, preparando a los desarrolladores para avances inminentes similares a los momentos innovadores de GPT-3.5 en el ámbito de las criptomonedas.

RedPill: potenciando la IA descentralizada

Aprovechar los modelos robustos de OpenAI, como GPT-4-vision, GPT-4-turbo y GPT-4o, ofrece ventajas convincentes para quienes buscan desarrollar DApps de IA de vanguardia. Estas poderosas herramientas brindan las capacidades fundamentales necesarias para ser pioneros en aplicaciones y soluciones avanzadas dentro del floreciente panorama de AI x Web3.

La integración de OpenAI en aplicaciones descentralizadas (dApps) es un tema candente entre los desarrolladores que pueden llamar a la API de OpenAI desde oráculos o interfaces. RedPill está a la vanguardia de esta integración, ya que democratiza el acceso a los mejores modelos de IA al ofrecer un servicio API agregado. Este servicio fusiona varias contribuciones de la API de OpenAI y las presenta bajo un mismo techo, brindando beneficios como una mayor asequibilidad, mejor velocidad y acceso global integral sin las limitaciones que normalmente plantea OpenAI.


Los problemas inherentes que a menudo enfrentan los desarrolladores de criptomonedas, como tokens por minuto (TPM) limitados o acceso restringido al modelo debido a límites geográficos, pueden generar obstáculos importantes. RedPill aborda estas preocupaciones directamente al dirigir las solicitudes de los desarrolladores a contribuyentes individuales dentro de su red, evitando efectivamente cualquier restricción directa de OpenAI. La siguiente tabla describe las marcadas diferencias en capacidades y costos entre RedPill y OpenAI:


pastilla roja

Abierto AI

TPM

Ilimitado

30k - 450k para la mayoría de los usuarios

Precio

5 dólares por cada 10 millones de solicitudes más incentivos simbólicos

5 dólares por cada 10 millones de solicitudes

RPM (solicitudes por minuto)

Ilimitado

500 - 5k para la mayoría de los usuarios


Red GPU

Además de utilizar la API OpenAI, los desarrolladores pueden alojar y ejecutar sus modelos en redes GPU descentralizadas. Plataformas populares como io.net , Aethir y Akash permiten a los desarrolladores crear y administrar sus clústeres de GPU, lo que les permite implementar los modelos más impactantes, ya sean propietarios o de código abierto.


Estas redes GPU descentralizadas aprovechan la potencia informática de contribuyentes individuales o pequeños centros de datos, lo que garantiza una variedad de especificaciones de máquinas, más ubicaciones de servidores y menores costos. Esta estructura única ayuda a los desarrolladores a realizar ambiciosos experimentos de IA con un presupuesto manejable. Sin embargo, la naturaleza descentralizada puede resultar en funciones limitadas, confiabilidad del tiempo de actividad y privacidad de los datos, como se muestra en la siguiente comparación:


Red GPU

Proveedor de GPU centralizado

SLA (tiempo de actividad)

Variable

99,99%+

SDK de integración y automatización

Limitado

Disponible

Servicios de almacenamiento

Limitado

Integral (estrategias de copia de seguridad, archivos, objetos, almacenamiento en bloque y recuperación)

Servicios de bases de datos

Limitado

Ampliamente disponible

Gestión de identidad y acceso

Limitado

Disponible

Cortafuegos

Limitado

Disponible

Servicios de monitoreo/administración/alerta

Limitado

Disponible

Cumplimiento de GDPR, CCPA (Privacidad de datos)

Limitado

Cumplimiento parcial

El reciente aumento del interés en torno a las redes GPU eclipsa incluso la locura por la minería de Bitcoin. Algunos factores clave contribuyen a este fenómeno:


  • Audiencia diversa : a diferencia de la minería de Bitcoin, que atrajo principalmente a especuladores, las redes de GPU atraen a una base más amplia y leal de desarrolladores de IA.
  • Requisitos de hardware flexibles : las aplicaciones de IA requieren especificaciones de GPU variadas según la complejidad de las tareas, lo que hace que las redes descentralizadas sean ventajosas debido a su proximidad a los usuarios finales y problemas de baja latencia.
  • Tecnología avanzada : estas redes se benefician de las innovaciones en la tecnología blockchain, la virtualización y los clústeres de computación, lo que mejora su eficiencia y escalabilidad.
  • Mayor potencial de rendimiento : el ROI de los cálculos de IA impulsados por GPU puede ser significativamente mayor en comparación con la naturaleza competitiva y limitada de la minería de Bitcoin.
  • Adopción de la industria : las principales empresas mineras están diversificando sus operaciones para incluir modelos de GPU específicos de IA para seguir siendo relevantes y aprovechar el mercado en crecimiento.


A medida que el panorama de la IA y la informática descentralizada continúa evolucionando, herramientas como RedPill y las redes de GPU descentralizadas están revolucionando la forma en que los desarrolladores superan las barreras tradicionales y abren nuevas posibilidades en el desarrollo de la IA.

Recomendación : io.net ofrece una experiencia de usuario sencilla, especialmente adecuada para desarrolladores Web2. Si es flexible con sus acuerdos de nivel de servicio (SLA), io.net podría ser una opción económica a considerar.

Red de inferencia

Una red de inferencia forma la columna vertebral de la infraestructura de IA criptonativa, diseñada para respaldar los modelos de IA en el procesamiento de datos y la toma de predicciones o decisiones inteligentes. En el futuro, está preparado para manejar miles de millones de operaciones de inferencia de IA. Muchas capas de blockchain (Capa 1 o Capa 2) ya brindan a los desarrolladores la capacidad de invocar operaciones de inferencia de IA directamente en la cadena. Los líderes en este mercado incluyen plataformas como Ritual, Vanna y Fetch.ai .


Estas redes varían según varios factores, incluido el rendimiento (latencia, tiempo de cálculo), los modelos admitidos, la verificabilidad y el precio (costos de consumo e inferencia), así como la experiencia general del desarrollador.

Meta

En un escenario ideal, los desarrolladores deberían poder integrar perfectamente capacidades de inferencia de IA personalizadas en cualquier aplicación, con soporte integral para diversas pruebas y un esfuerzo de integración mínimo.


La red de inferencia ofrece todos los elementos de infraestructura necesarios que los desarrolladores necesitan, como generación y validación de pruebas bajo demanda, cálculo de inferencia, retransmisión de inferencia, puntos finales Web2 y Web3, implementación de modelos con un solo clic, monitoreo, interoperabilidad entre cadenas, sincronización de integración y ejecución programada.



Con estas capacidades, los desarrolladores pueden integrar fácilmente la inferencia en sus proyectos blockchain. Por ejemplo, al desarrollar robots comerciales de finanzas descentralizadas (DeFi), se pueden emplear modelos de aprendizaje automático para identificar oportunidades de compra y venta de pares comerciales y ejecutar estrategias en un DEX base.


Lo ideal sería que toda la infraestructura estuviera alojada en la nube, lo que permitiría a los desarrolladores cargar y almacenar sus estrategias modelo en formatos populares como Torch. La red de inferencia se encargaría tanto del almacenamiento como del servicio de modelos para consultas Web2 y Web3.


Una vez que se completa la implementación del modelo, los desarrolladores pueden activar la inferencia del modelo mediante solicitudes de API Web3 o directamente mediante contratos inteligentes. La red de inferencia ejecuta continuamente estrategias comerciales y retroalimenta los resultados a los contratos inteligentes fundamentales. Si se administran fondos comunitarios sustanciales, podría ser necesario demostrar la precisión de la inferencia. Al recibir los resultados de la inferencia, los contratos inteligentes ejecutan automáticamente operaciones basadas en esos resultados.


Asincronización vs Sincronización

Si bien la ejecución asincrónica podría, en teoría, ofrecer un mejor rendimiento, puede complicar la experiencia del desarrollador.


En el modelo asincrónico, los desarrolladores envían inicialmente su trabajo a la red de inferencia mediante contratos inteligentes. Una vez que se completa el trabajo, el contrato inteligente de la red devuelve el resultado. Esto divide la programación en dos fases: invocar la inferencia y procesar sus resultados.



Esta separación puede generar complejidades, especialmente con llamadas de inferencia anidadas o manejo lógico extenso.



Además, los modelos asincrónicos pueden resultar difíciles de integrar con los contratos inteligentes existentes, ya que requieren codificación adicional, un manejo exhaustivo de errores y dependencias adicionales.

La sincronización suele ser más sencilla de implementar para los desarrolladores, pero presenta desafíos relacionados con la latencia y el diseño de blockchain. Por ejemplo, cuando se trata de datos de entrada que cambian rápidamente, como el tiempo de bloque o los precios de mercado, los datos pueden quedar obsoletos cuando se completa el procesamiento. Este escenario puede provocar una reversión de las ejecuciones de contratos inteligentes, especialmente cuando se realizan operaciones como el intercambio basado en precios obsoletos.



Valence está abordando estos desafíos centrándose en una infraestructura de inteligencia artificial que funciona de forma asincrónica.

Realidad

En el panorama actual, la mayoría de las redes de inferencia nuevas como Ritual Network todavía se encuentran en fases de prueba y ofrecen una funcionalidad limitada según su documentación pública. En lugar de proporcionar una infraestructura en la nube para cálculos de IA en cadena, admiten un marco para albergar automáticamente cálculos de IA y, posteriormente, transmitir los resultados a la cadena de bloques.


A continuación se muestra una arquitectura típica utilizada para ejecutar un AIGC NFT: el modelo de difusión genera el NFT y lo carga en Arweave. Luego, la red de inferencia recibe la dirección de Arweave y procede a acuñar el NFT en cadena.



Este modelo requiere que los desarrolladores implementen y alojen la mayor parte de la infraestructura de forma independiente, lo que incluye la gestión de Ritual Nodes con lógica de servicio personalizada, nodos de difusión estables y contratos inteligentes NFT.


Recomendación : las redes de inferencia actuales son complejas de integrar e implementar modelos personalizados. Como muchos no ofrecen verificabilidad en esta etapa, implementar IA en el frontend podría ser una opción más sencilla para los desarrolladores. Para aquellos que requieren verificabilidad, el proveedor de aprendizaje automático Zero Knowledge, Giza, ofrece una alternativa prometedora.

Red de agentes

Las redes de agentes simplifican la personalización de agentes para los usuarios. Estas redes consisten en entidades autónomas o contratos inteligentes capaces de ejecutar tareas e interactuar entre sí y con la cadena de bloques de forma autónoma. Actualmente están más centrados en modelos de lenguaje grandes (LLM), como los chatbots GPT diseñados específicamente para comprender Ethereum. Sin embargo, estos chatbots actualmente tienen capacidades limitadas, lo que impide a los desarrolladores crear aplicaciones complejas sobre ellos.



De cara al futuro, las redes de agentes están preparadas para mejorar sus capacidades proporcionando a los agentes herramientas avanzadas, incluido el acceso API externo y funcionalidades de ejecución. Los desarrolladores podrán orquestar flujos de trabajo conectando múltiples agentes especializados, como aquellos centrados en el diseño de protocolos, el desarrollo de Solidity, las revisiones de seguridad del código y la implementación de contratos, utilizando indicaciones y contextos para facilitar la cooperación.



Ejemplos de redes de agentes incluyen Flock.ai , Myshell y Theoriq.


Recomendación : dado que las tecnologías de agentes actuales aún están evolucionando y poseen funcionalidades limitadas, los desarrolladores pueden encontrar herramientas de orquestación más maduras, como Langchain o Llamaindex en el espacio Web2, más efectivas para sus necesidades.

Diferencia entre red de agentes y red de inferencia

Si bien tanto las redes de agentes como las redes de inferencia sirven para mejorar las capacidades e interacciones en la cadena de bloques, sus funciones principales y su enfoque operativo difieren mucho. Las redes de agentes están orientadas a automatizar las interacciones y ampliar la utilidad de los contratos inteligentes a través de agentes autónomos. Por el contrario, las redes de inferencia se ocupan principalmente de integrar y gestionar análisis de datos basados en IA en la cadena de bloques. Cada uno tiene un propósito único, adaptado a diferentes aspectos de la integración de blockchain y AI.

Las redes de agentes se centran principalmente en modelos de lenguajes grandes (LLM) y proporcionan herramientas de orquestación, como Langchain, para facilitar la integración de estos agentes. Para los desarrolladores, esto significa que no es necesario desarrollar sus propios modelos de aprendizaje automático desde cero. En cambio, la red de inferencia abstrae la complejidad del desarrollo y la implementación del modelo, lo que les permite conectar agentes simplemente utilizando herramientas y contextos apropiados. En la mayoría de los casos, los usuarios finales interactúan directamente con estos agentes, simplificando la experiencia del usuario.


Por el contrario, la red de inferencia forma la columna vertebral operativa de la red de agentes y otorga a los desarrolladores acceso de nivel inferior. A diferencia de las redes de agentes, los usuarios finales no utilizan directamente las redes de inferencia. Los desarrolladores deben implementar sus modelos, que no se limitan a los LLM, y pueden acceder a estos modelos a través de puntos dentro o fuera de la cadena.


Curiosamente, las redes de agentes y las redes de inferencia están comenzando a converger en algunos casos, con productos integrados verticalmente que ofrecen funcionalidades tanto de agente como de inferencia. Esta integración es lógica ya que ambas funciones comparten una infraestructura troncal similar.


Comparación de redes de inferencia y agentes:


Red de inferencia

Red de agentes

Clientes potenciales

Desarrolladores

Usuarios finales/Desarrolladores

Modelos compatibles

LLM, redes neuronales, modelos de aprendizaje automático tradicionales

Principalmente LLM

Infraestructura

Soporta diversos modelos

Principalmente admite LLM populares

Personalización

Amplia adaptabilidad del modelo

Configurable a través de indicaciones y herramientas.

Proyectos populares

Ritual, Valencia

Rebaño, Myshell, Theoriq, Olas

Espacio para las próximas innovaciones geniales

A medida que profundizamos en el proceso de desarrollo de modelos, surgen numerosas oportunidades dentro de los campos de web3:

  • Conjuntos de datos : transformar los datos de blockchain en conjuntos de datos listos para ML es crucial. Proyectos como Giza están avanzando al proporcionar conjuntos de datos de alta calidad relacionados con DeFi. Sin embargo, la creación de conjuntos de datos basados en gráficos, que representan más adecuadamente las interacciones de blockchain, sigue siendo un área que necesita desarrollo.
  • Almacenamiento de modelos : para modelos grandes, el almacenamiento, la distribución y el control de versiones eficientes son esenciales. Los innovadores en este espacio incluyen Filecoin, AR y 0g.
  • Formación de modelos : la formación de modelos descentralizada y verificable sigue siendo un desafío. Entidades como Gensyn, Bittensor y Flock están logrando avances significativos.
  • Monitoreo : es necesaria una infraestructura efectiva para monitorear el uso del modelo dentro y fuera de la cadena, ayudando a los desarrolladores a identificar y rectificar problemas o sesgos en sus modelos.
  • Infraestructura RAG : con la generación aumentada por Retriever, aumenta la demanda de almacenamiento y computación privados y eficientes. Firstbatch y Bagel son ejemplos de proyectos que abordan estas necesidades.
  • Modelos Web3 dedicados : los modelos personalizados son esenciales para casos de uso específicos de Web3, como la detección de fraude o las predicciones de precios. Por ejemplo, Pond está desarrollando redes neuronales gráficas (GNN) orientadas a blockchain.
  • Redes de evaluación : La proliferación de agentes requiere mecanismos de evaluación sólidos. Plataformas como Neuronets son fundamentales para brindar dichos servicios.
  • Consenso : La prueba de participación (PoS) tradicional puede no ser adecuada para tareas orientadas a la IA debido a su complejidad. Bittensor, por ejemplo, ha desarrollado un modelo de consenso que recompensa a los nodos por aportar valiosos conocimientos de IA.

Perspectiva del futuro

La tendencia hacia la integración vertical es evidente, donde las redes buscan brindar soluciones de ML integrales y multifuncionales desde una única capa computacional. Este enfoque promete una solución todo en uno optimizada para los desarrolladores de Web3 ML, impulsando la integración de las tecnologías AI y blockchain.

La inferencia en cadena, si bien ofrece una verificabilidad excepcional y una integración perfecta con sistemas backend como contratos inteligentes, sigue siendo costosa y lenta. Imagino un enfoque híbrido en el futuro. Es probable que veamos una combinación en la que algunas tareas de inferencia se realizan fuera de la cadena, en el frontend, para lograr eficiencia, mientras que las tareas de inferencia críticas y centradas en decisiones seguirán manejándose en la cadena. Este paradigma ya se aplica en los dispositivos móviles. Aprovechando las capacidades móviles, los modelos más pequeños se ejecutan localmente para obtener respuestas rápidas, mientras que los cálculos más complejos se descargan a la nube, aprovechando modelos de lenguaje (LLM) más grandes.