Los propietarios de GPU ahora pueden registrarse para ganar recompensas aportando potencia de computación de reserva a FAR AI, una red de inferencia descentralizada lanzada hoy por FAR Labs. FAR AI conecta PCs de juegos inactivos, estaciones de trabajo y pequeños servidores a una infraestructura de IA unificada diseñada para ser más rápida, más barata y más resiliente que los proveedores de nube centralizados. Un pequeño número de proveedores hiperscales controlan el acceso a las GPU necesarias para la inferencia de la IA. Esa concentración impulsa los precios, crea puntos de fallo únicos y bloquea a los constructores independientes. Las solicitudes de inferencia fluyen a través de nodos distribuidos en lugar de a través de una sola nube. Un nodo puede ser un PC de juegos, una estación de trabajo o un pequeño servidor, básicamente, cualquier máquina con capacidad de GPU o CPU de repuesto. Si puede ejecutar inferencia, se califica. Lo que un operador gana depende del tipo de hardware, la computación entregada, la demanda de red y el pool de recompensas mensuales. FAR Labs ha lanzado el FAR AI para ayudar a los operadores a comprender los retornos potenciales antes de que se abra la red. Los modelos de herramientas estimaron las recompensas mensuales basadas en las especificaciones de hardware individuales y los costos operativos.Los usuarios seleccionan su GPU, ajustan los precios de la electricidad y ven los ingresos proyectados en diferentes escenarios de red. Calculadora de recompensas Node Calculadora de recompensas Node La respuesta temprana ha sido fuerte. Más de 1.200 usuarios han a través de la calculadora desde que se lanzó, y aquellos que guarden sus cálculos recibirán acceso prioritario cuando el nodo se incorpore en vivo. Registrado Las GPUs son excelentes en el procesamiento paralelo, que los modelos modernos de IA necesitan para inferir. Sin embargo, los chips de alto rendimiento son caros, y operarlos a escala requiere instalaciones especializadas. Esa estructura de costos concentró el poder de la IA en unas pocas manos corporativas.Pero el hardware necesario para la inferencia ya existe.Más de 100 millones de GPUs de clase consumidor se sienten vacíos en hogares, oficinas y estudios de todo el mundo.La mayoría se utilizan con menos del 20 por ciento de capacidad. FAR AI conecta esa computación dormiente a una red distribuida. los costos caen, la carga energética disminuye y la resiliencia geográfica mejora - sin necesidad de nuevo hardware. dijo , el estudio de juegos detrás de FAR Labs. “El mundo ya posee la computadora necesaria para alimentar la IA”. Ilman Shazhaev , Founder and CEO of Diccionario “Es simplemente desconectado y subutilizado. FAR AI conecta que computa y distribuye tanto el acceso como las recompensas. Estamos construyendo una infraestructura que es más rápida, más barata y abierta a todos”. Ilman Shazhaev Diccionario About FAR Labs La compañía desarrolló FAR AI, una red de computación distribuida que ejecuta modelos de lenguaje de código abierto más rápido y más barato que los proveedores de nube tradicionales al conectar GPUs inactivas a una capa de inferencia unificada. Los Laboratorios FAR Labs es la división de tecnología profunda de Dizzaract, el estudio de juegos más grande en el Medio Oriente y el Norte de África, respaldado por el gobierno de Abu Dhabi y que emplea a más de 80 profesionales en 25 países.