Estamos a principios de 2025 y es posible que ya estemos presenciando un momento decisivo para la IA tal como la conocemos en los últimos años. ¿Está a punto de cambiar el canon de “más GPU es todo lo que necesitas”? Qué giro tan inusual de los acontecimientos. En primer lugar, el . La empresa conjunta creada por OpenAI, SoftBank, Oracle y la firma de inversiones MGX tiene como objetivo invertir hasta 500.000 millones de dólares en infraestructura de inteligencia artificial en Estados Unidos hasta 2029. Proyecto Stargate Arm, Microsoft, Nvidia, Oracle y OpenAI son los socios tecnológicos iniciales clave de lo que se ha denominado “el proyecto Manhattan del siglo XXI”, con el apoyo directo de la administración estadounidense. El presidente Donald Trump lo calificó como “el proyecto de infraestructura de inteligencia artificial más grande de la historia”. La lista de socios tecnológicos líderes con sede en Estados Unidos en el proyecto y la enorme inversión en lo que ha sido una iniciativa estratégica para Estados Unidos (infraestructura de IA para asegurar el liderazgo en IA) es lo que impulsa el paralelismo con el Proyecto Manhattan. Los dos fabricantes de chips de IA que aparecen en la lista (Arm y Nvidia) están dirigidos por directores ejecutivos de origen taiwanés. Esto es notable, teniendo en cuenta las tensas relaciones que Taiwán mantiene con China y el hecho de que el Proyecto Stargate es el último de una serie de que apuntan a fortalecer la infraestructura y los conocimientos técnicos de IA nacionales, al tiempo que , principalmente a China. políticas estadounidenses recientes imponen limitaciones al resto del mundo Sin embargo, nada de eso importó para el mercado, que . Pero todo eso fue antes del lanzamiento de DeepSeek R1. hizo que las acciones de Nvidia se dispararan una vez más en los últimos dos años con el anuncio del Proyecto Stargate es un nuevo modelo de razonamiento de código abierto, publicado apenas unos días después del anuncio del Proyecto Stargate. El modelo fue desarrollado por la empresa china de inteligencia artificial DeepSeek, que afirma que R1 iguala o incluso supera a ChatGPT o1 de OpenAI en múltiples puntos de referencia clave, pero funciona a una fracción del costo. DeepSeek R1 Lo destacable de DeepSeek R1 es que se desarrolló en China, a pesar de todas las restricciones que pesan sobre los chips de IA, que tienen como objetivo obstaculizar la capacidad de avanzar en el campo de la IA. ¿Significa eso que la ? idea convencional, centrada en OpenAI y en los EE. UU., de que “más GPU es todo lo que se necesita” en IA está a punto de cambiar radicalmente Chips de IA, dinero, talento e ingeniería La verdad es que, cuando hace unos días organizamos una conversación sobre chips de IA con Chris Kachris, ni el Proyecto Stargate ni DeepSeek R1 habían irrumpido en la escena de la IA. Aunque no previmos conscientemente estos avances, sabíamos que son un tema que merece atención y que Kachris es un experto en el tema. los chips de IA Se ha convertido en una tradición para Orchestrate all the Things analizar chips de IA y ofrecer ideas de expertos en el campo, y la conversación con Kachris es la última pieza de esta tradición. Chris Kachris es el fundador y director ejecutivo de , que ayuda a las empresas a acelerar sus aplicaciones utilizando aceleradores de hardware en la nube de forma más sencilla que nunca. También es un investigador muy citado con más de 20 años de experiencia en y aceleradores de hardware para aprendizaje automático, procesamiento de redes y procesamiento de datos. InAccel FPGA https://www.youtube.com/watch?v=BkYhBOFqkwY&embedable=true Después de que , Kachris regresó a la investigación y actualmente trabaja como profesor asistente en el Departamento de Ingeniería Eléctrica y Electrónica de la Universidad de West Attica. Intel adquiriera recientemente InAccel Al preparar el escenario para la conversación con esta noticia oportuna, el comentario inicial de Kachris fue que la innovación en chips de IA es un "deporte caro", por lo que se produce principalmente en la industria y no en el ámbito académico. Al mismo tiempo, sin embargo, señaló que los recursos necesarios no solo se reducen al dinero, sino que también implican talento e ingeniería. Para Kachris, las políticas estadounidenses han ido por buen camino en cuanto a su objetivo de repatriar a los expertos y hacer que el país sea autosuficiente. Como ciudadano europeo, también pidió que la UE aplique iniciativas similares, al igual que muchas voces . Sin embargo, ¿qué podemos aprender de la experiencia adquirida con DeepSeek? que piden que la UE mejore su capacidad de gestión de las GPU Aprendiendo del éxito de DeepSeek Según el informe “ ”, a diferencia de otros países BRICS, China utiliza tanto tarjetas gráficas extranjeras (a través de la nube y en sus propios centros de datos) como tarjetas locales fabricadas por empresas chinas. Inteligencia artificial generativa en los países BRICS+ Actualmente, hay más de 10 empresas en China que están desarrollando sus propias tarjetas gráficas y, según se informa, el proceso de cambio a GPU locales después de usar NVIDIA no es difícil para las empresas chinas. Parece que para seguir siendo competitivos en la carrera de la IA, los países tendrán que reconsiderar sus opciones, posiblemente . Kachris coincidió en que China ha estado progresando a pasos agigantados, primero imitando y luego desarrollando técnicas innovadoras propias. copiando las estrategias de China “Pueden combinar y combinar diferentes versiones de GPU y otras unidades de procesamiento para crear un centro de datos o una nube potentes. Esto es muy útil, especialmente si piensas que, en el pasado, había que comprar equipos nuevos cada tres o cuatro años, tal vez”. "Hoy en día, la innovación es tan rápida que casi todos los años tenemos chips y procesadores más potentes. ¿Tiene sentido tirar a la basura procesadores que tienen uno o dos años? Definitivamente, hay que encontrar una forma de utilizar los recursos, incluso si se trata de recursos heterogéneos. Esto sería mucho más rentable", afirma Kachris. El costo informado de entrenamiento de DeepSeek R1 es un argumento sólido a favor de este enfoque. Además del entrenamiento en una infraestructura heterogénea, incluyó la reducción de la precisión numérica, la capacidad de lectura de múltiples tokens y la aplicación de una técnica inteligente de mezcla de expertos. el enfoque de DeepSeek El resultado es una reducción de los costes de formación de 100 millones de dólares a unos 5 millones de dólares y una reducción de las necesidades de hardware de 100.000 GPU a apenas 2.000, lo que hace que el desarrollo de IA sea accesible en las GPU de juegos estándar. Es más, aunque DeepSeek no sea 100% de código abierto ( ), su proceso se puede replicar. lo que sea que eso signifique para los LLM Entrenamiento pragmático en IA Los chips de IA y los modelos de IA de código abierto son parte de la capacitación integral en IA pragmática. Teoría y laboratorios prácticos. Retiro con todo incluido. Cupo limitado. Haga clic aquí para registrarse en la capacitación sobre inteligencia artificial pragmática Evaluación del mercado de chips de IA La reacción inmediata a la noticia fue una y . El mercado ya había comenzado a corregir su rumbo en el momento de escribir este artículo, y tanto las tendencias alcistas como las descendentes eran algo predecibles. ola de ventas las acciones de Nvidia cayeron un 17 % tras la noticia Por un lado, lo que DeepSeek demostró fue que hay mucho margen para mejorar la eficiencia en el entrenamiento de los modelos de IA de mayor rendimiento, lo que socava activamente la creencia popular. Por otro lado, , y . eso no significa que Nvidia no siga siendo el líder podemos esperar ver la paradoja de Jevon en acción una vez más Nvidia mantuvo el ritmo de , anunciando y posteriormente enviando su última arquitectura Blackwell, ampliando su ecosistema y alcanzando múltiples hitos financieros y comerciales. Kachris destacó que Nvidia ya no solo vende chips, sino que ha avanzado hacia la integración vertical de su con sus chips en la . innovación en 2024 tecnología NVLink plataforma DGX Pero las GPU de Nvidia no son las únicas en la ciudad. AMD, por su parte, anunció un nuevo acelerador de IA, el . Como señaló Kachris, la es muy potente y cuenta con unidades especializadas para acelerar los transformadores, una arquitectura clave para los modelos de lenguaje grande. . Instinct MI325X serie MI300 El crecimiento de AMD supuestamente está impulsado por los productos de IA y de centros de datos La gran mayoría de las personas y organizaciones serán usuarios de IA, no desarrolladores de IA. Para ellos, usar o incluso desarrollar aplicaciones de IA no es realmente una cuestión de entrenar su propio modelo, sino más bien de usar o ajustar un modelo previamente entrenado. https://pod.co/orchestrate-all-the-things-podcast-connecting-the-dots-with-george-anadiotis/ai-chips-in-2025-the-end-of-more-gpus-is-all-you-need-featuring-inaccel-ceo-founder-chris-cachris?embedable=true Kachris también destacó el progreso de Intel con Gaudi. Sin embargo, a pesar de las altas capacidades de rendimiento de Gaudi 3, Intel parece estar . Al mismo tiempo, . rezagado en términos de participación de mercado, en gran parte debido al software Intel está tomando medidas para vender su unidad FPGA, Altera Según Kachris, los FPGAs pueden no ser la solución más eficaz para el entrenamiento de la IA, pero tienen mucho sentido para la inferencia, y aquí es donde hay un amplio margen para la competencia y la innovación. Es precisamente en esto (crear una capa de software para trabajar con FPGAs) en lo que estaba trabajando InAccel y lo que llevó a la adquisición por parte de Intel. Naturalmente, Kachris enfatizó la importancia de la capa de software. Al final del día, incluso si un chip tiene un rendimiento superior, si no es fácil de usar para los desarrolladores a través de la capa de software, eso dificultará su adopción. Nvidia mantiene la ventaja significativa en la capa de software debido a su , en la que sigue invirtiendo. omnipresente pila CUDA El resto de la industria, liderada por Intel a través de la iniciativa , está haciendo esfuerzos para ponerse al día. AMD tiene su propia capa de software, ROCm. Pero no se logrará de la noche a la mañana. Como dijo Kachris, la capa de software tiene que permitir el uso de la capa de hardware sin cambiar una sola línea de código. UXL Foundation/OneAPI Nvidia también está intensificando su estrategia de inferencia y software con su marco , que parece haber . La competencia también . Hay una variedad de competidores como , , , y , que compiten por una porción del mercado de inferencia. NIM recientemente lanzado ganado cierta aceptación se está centrando en la inferencia Groq Tenstorrent GraphCore Cerebras SambaNova El borde: aceleración y eficiencia energética Si bien DeepSeek es una muestra destacada de los beneficios de la optimización, no es la única. Kachris participó recientemente en una , muchos de los cuales estaban orientados a la inferencia. encuesta exhaustiva y una comparación de la aceleración de hardware de los LLM Una forma de hacerlo es a través de las API de proveedores de IA, normalmente OpenAI o Anthropic. Sin embargo, para casos de uso más sofisticados, por razones relacionadas con la privacidad, el cumplimiento normativo, la ventaja competitiva, los requisitos de la aplicación o el coste, los usuarios finales querrán implementar modelos de IA en su propia infraestructura. Esto puede incluir una amplia gama de entornos, desde locales y en la nube privada hasta el perímetro y el hardware. Especialmente con los LLM, . Le preguntamos a Kachris si cree que la implementación local/en el perímetro de los LLM tiene sentido. existe incluso la opción de ejecutarlos localmente en máquinas listas para usar Kachris señaló que la inferencia puede funcionar con versiones "reducidas", es decir, cuantificadas, de los modelos de IA. Las investigaciones sugieren que . Kachris señaló que, si bien existen arquitecturas de hardware especializadas, de las que están ampliamente disponibles, las GPU y los FPGA ofrecen el mejor rendimiento, siendo los FPGA más eficientes energéticamente. incluso las versiones de 1 bit de los modelos son viables Avanzando: innovación y especialización En cuanto a los desarrollos futuros, Kachris destacó como un área a tener en cuenta. La idea principal es poder combinar almacenamiento y computación en la misma unidad, eliminando así la necesidad de transferencia de datos y dando lugar a un mejor rendimiento. Esto se inspira en la forma en que funcionan las redes neuronales biológicas y se conoce como computación neuromórfica. la computación en memoria Hay más áreas de desarrollos dignos de mención, como , , y . los chiplets chips especializados diseñados para la arquitectura del transformador que impulsa los LLM la tecnología fotónica los nuevos lenguajes de programación para IA En términos de perspectivas a más corto y mediano plazo, y la cuestión de si hay lugar para la innovación en un mundo dominado por Nvidia, Kachris cree que los sistemas integrados y la inteligencia artificial de borde representan una oportunidad para los desafiantes: “Existen diferentes requisitos y especificaciones en el ámbito de la inteligencia artificial de borde. Creo que hay espacio para la innovación en la inteligencia artificial de borde, por ejemplo, en aplicaciones de video para hospitales o en la conducción autónoma y la aviación. Creo que va a suceder. Hablemos de las GPU. NVIDIA es líder en GPU, pero faltaban GPU para dispositivos portátiles. Y vimos a una gran empresa, , dar un paso adelante y desarrollar una GPU especializada para pulseras de actividad o relojes inteligentes, y luego fue . Think Silicon adquirida por Applied Materials La innovación se producirá en áreas que son demasiado pequeñas para empresas como Nvidia o Intel, pero lo suficientemente buenas para empresas más pequeñas que pueden fabricar productos especializados”. Únase al boletín informativo Orchestrate All the Things Historias sobre cómo la tecnología, los datos, la inteligencia artificial y los medios se combinan para dar forma a nuestras vidas. Análisis, ensayos, entrevistas y noticias. Edición media a larga, 1-3 veces al mes. Haga clic aquí para suscribirse