paint-brush
De la IA abierta a la IA cerrada: los chips personalizados están cerrando las puertas. ¿Qué sigue?por@bigmao
449 lecturas
449 lecturas

De la IA abierta a la IA cerrada: los chips personalizados están cerrando las puertas. ¿Qué sigue?

por susie liu11m2024/11/20
Read on Terminal Reader

Demasiado Largo; Para Leer

Se dice que OpenAI está trabajando con Broadcom para desarrollar chips personalizados. Este rumor lleva implícito el mensaje de que los días de la IA de acceso universal pueden estar contados. Aquí se explica por qué el hardware de diseño es inevitable, cómo la tecnología podría usar chips para encadenarnos y qué esperar a partir de 2025.
featured image - De la IA abierta a la IA cerrada: los chips personalizados están cerrando las puertas. ¿Qué sigue?
susie liu HackerNoon profile picture
0-item
1-item
2-item

A finales de octubre, surgieron informes, cortesía de Reuters, de que OpenAI está trabajando con Broadcom para desarrollar silicio personalizado adaptado para manejar sus colosales cargas de trabajo de IA . Las fuentes revelaron que la empresa ha asegurado la capacidad de fabricación con TSMC y ha reunido un equipo de 20 ingenieros , contratando a ex veteranos de la división de procesadores Tensor de Google. Los plazos de producción siguen siendo flexibles, y es posible que los chips se lancen al mercado hasta 2026 , pero ya se están sentando las bases para un cambio radical en la forma en que OpenAI maneja su infraestructura.


Si bien la medida se alinea con la estrategia actual de OpenAI de diversificar su cadena de suministro y controlar los crecientes costos de infraestructura, este rumor podría llevar implícito el mensaje de que los días de la IA de acceso universal pueden estar contados. El futuro de la IA no es un mundo más grande y brillante abierto a cualquiera con una mente brillante, sino una sala VIP con chips personalizados para las paredes , donde la tarifa de membresía es un presupuesto de mil millones de dólares.


El hardware personalizado sin duda traerá consigo grandes avances , pero también construirá barreras ; barricadas que dejarán al público en general (y a la mayoría de los otros actores) afuera, mirando hacia adentro.


Y eso podría ser exactamente lo que la tecnología quería desde el principio.


Veamos por qué la carrera armamentista del hardware es inevitable, cómo los chips juegan un papel en la estrategia más amplia de dominación de la tecnología y qué esperar a continuación.

Patatas fritas personalizadas: una forma elegante de decir “estamos atrapados”

La IA nos ha hecho soñar en grande: desde robots terapéuticos personalizados hasta drones autónomos de reparto y diagnósticos basados en IA en todos los teléfonos. Pero la última iniciativa de OpenAI para desarrollar chips personalizados indica que nuestras ambiciones descabelladas en materia de IA ahora requieren modelos tan formidables que incluso los procesadores de uso general más potentes están agitando una bandera blanca . El silicio personalizado no tiene como objetivo hacer que la IA sea más rápida, mejor y más libre, sino mantener todo a flote ante demandas cada vez mayores, una admisión silenciosa de que hemos llegado a un techo de innovación que solo el hardware puede romper.


Esto es lo que impulsa la necesidad de silicio personalizado.


La verdadera personalidad de ChatGPT: exigente

La sabiduría de los LLM como GPT-4 y Gemini se basa en modelos basados en transformadores que realizan un seguimiento de miles de millones de parámetros. Pero esta inteligencia tiene un precio : una columna vertebral de mecanismos de autoatención que requieren multiplicaciones de matrices masivas que devoran el ancho de banda de la memoria. La arquitectura de los transformadores también requiere una escala de complejidad cuadrática , lo que significa que la expansión del modelo aumenta las demandas exponencialmente . Cuando los LLM intentan mejorar su juego mediante la aplicación de capas de aprendizaje de refuerzo (RL) para adaptarse a la retroalimentación en tiempo real, o intentan mapear conexiones utilizando redes neuronales gráficas (GNN) , las cosas se convierten en una fiesta de datos seria, lo que hace que los requisitos de energía se disparen. Si ha notado que ChatGPT ha estado teniendo algún que otro ataque de epilepsia últimamente, esta es la razón .


Los chips personalizados como las TPU de Google pueden resolver estos problemas integrando memoria de gran ancho de banda (HBM) en el chip, gestionando el movimiento de datos y mejorando las jerarquías de memoria para reducir la latencia, y también aprovechando matrices sistólicas para paralelizar las operaciones matriciales.

IA generativa: de los resultados a las interrupciones

La IA generativa está pasando de ofrecer resultados singulares como texto o imágenes a obras maestras multimodales mediante la combinación de múltiples formas de medios (texto, audio, video). Esta magia técnica genera un caos computacional: cada modalidad tiene necesidades de procesamiento distintas, y pedirle a la IA que digiera todo simultáneamente pone a prueba a las GPU de propósito general que no fueron diseñadas para ser maestras en el manejo de la información. Además, los modelos de síntesis en tiempo real para funciones de participación mejoradas, como historias dinámicamente adaptables para juegos o filtros de efectos especiales para transmisiones en vivo, exigen una latencia ultrabaja y velocidades de inferencia rápidas, requisitos que las GPU tienen dificultades para cumplir sin introducir demoras y una factura de electricidad altísima.


Los silicios personalizados, como el A100 de NVIDIA y las TPU de Google, abordan estos problemas con GPU de múltiples instancias (MIG) y núcleos tensoriales , lo que permite un cálculo multimodal en tiempo real con un consumo eficiente de energía al dividir las tareas en procesos paralelos y aislados en el mismo chip. También se puede introducir una aritmética de precisión reducida para permitir el procesamiento en formatos como FP16 o INT8 en lugar de FP32, lo que conserva la precisión sin derretir el hardware.

Inteligencia artificial de vida o muerte: precisión que agota la red

Para sortear el caos del mundo real , como la conducción autónoma, la robótica o los drones, es necesario que la IA basada en eventos responda a una velocidad sobrehumana, una tarea adecuada para modelos neuromórficos y probabilísticos que romperían un chip estándar. Los chips personalizados como el Loihi de Intel se construyen con arquitecturas que imitan las redes neuronales biológicas y se basan en redes neuronales activas (SNN) y procesamiento basado en eventos para analizar los datos solo cuando se producen eventos relevantes y, al mismo tiempo, asignar recursos de forma dinámica en función de los patrones de datos entrantes. Si bien este diseño permite operaciones de bajo consumo y baja latencia a escala, es incompatible con el hardware que se encuentra en el mercado abierto.

Inteligencia artificial social: romper con la humanidad requiere mucho trabajo

Ah, la aplicación tentadora pero éticamente turbia de la IA que los titanes esperan que nos mantenga hechizados por sus plataformas y embelesados con sus mascotas programadas. Descifrar la elusividad de la naturaleza humana requiere sistemas que interpreten, predigan y se adapten al comportamiento tanto a nivel individual como social: mecanismos de atención intermodal , redes neuronales genómicas para diseccionar interacciones colectivas, computación afectiva para desarrollar la inteligencia emocional, gráficos de conocimiento para garantizar la relevancia contextual, y la lista continúa. Además, la IA social podría operar en contextos sensibles (como dentro de un robot-roedor que cura la depresión), lo que requiere una IA en el dispositivo para salvaguardar los datos del usuario . No hace falta decir que toda esta computación paraliza los chips convencionales y su procesamiento por lotes.


Estos procesos exigen eficiencia de datos dispersos y alta precisión con baja latencia , requisitos que el silicio de diseño puede satisfacer mediante la incorporación de características como arquitectura de memoria unificada , aceleradores específicos de tareas , optimización de datos dispersos (utilizada en la IPU de Graphcore) y optimización de fusión multimodal .

Inteligencia artificial científica: la última frontera demasiado grande para el hardware convencional

Aunque no es tan querida por los medios como otros dominios, la IA científica está a punto de convertirse en la frontera más profundamente revolucionaria en inteligencia artificial . Pero solo si el hardware puede seguirle el ritmo. Para que la IA generativa científica cree nuevas posibilidades (por ejemplo, moléculas, materiales y sistemas novedosos), los marcos computacionales avanzados como los modelos de difusión , VAE , transformadores y aprendizaje de refuerzo deben combinarse con el conocimiento específico del dominio. La IA no generativa utilizada para el modelado predictivo y las simulaciones se ocupa de datos a escala de petabytes y sistemas de alta dimensión, utilizando mecanismos como solucionadores de PDE , GNN , modelos bayesianos y análisis de elementos finitos (FAE) . Aunque las dos ramas de la IA científica tienen diferentes propósitos, ambas requieren precisión, escalabilidad e intensidad computacional, criterios que solo los mecanismos más elitistas de la IA generativa y predictiva pueden cumplir. Es obvio que el hardware listo para usar no dará la talla.

La muerte de la IA abierta y el atractivo de la exclusividad

El camino hacia el silicio a medida tiene un precio que casi garantiza la estratificación del acceso a la IA. Economía 101: para cubrir los gastos astronómicos, OpenAI (y todos los que sigan su ejemplo) inevitablemente pasarán la carga a los clientes, agrupando el acceso en ofertas que harán que nuestras suscripciones actuales parezcan centavos por dólar .


Pero no confundamos los precios inflados y un sistema jerárquico donde la fortaleza financiera es un prerrequisito con una táctica de supervivencia reactiva; es una oportunidad estratégica, porque la exclusividad no es un error, es la característica que la tecnología ha estado esperando.


Vendor Lock-In 2.0: encadenamiento de empresas mediante chips

El hardware propietario introduce un campo gravitatorio : una vez que las empresas se integran en un ecosistema que combina software y silicio personalizado, están efectivamente limitadas por él. Entretejer una pila de software en silicio crea un mecanismo donde los sistemas solo pueden funcionar al máximo dentro de los dominios del proveedor, una configuración irreversible donde el hardware dicta el software . Una vez que las empresas crean sus aplicaciones y flujos de trabajo en torno a este entorno personalizado, irse no es simplemente una cuestión de transferir datos o licencias de software, sino de reingeniería desde cero , como intentar transferir el progreso de PS a Xbox .


Y a medida que el hardware se va iterando, la integración se vuelve más fluida, lo que hace que los costos de salida se disparen con cada actualización . Con un mayor rendimiento, se consolida la lealtad: como sucede con la mayoría de los ecosistemas integrados verticalmente, cambiar significa comenzar de nuevo.

Chips personalizados, reglas personalizadas: eliminar la competencia mediante el diseño

El silicio personalizado fragmenta el ecosistema de IA en jardines amurallados donde la interoperabilidad que definió el auge inicial de la IA va a morir. Debido a la elevada eficiencia y control que ofrecen los chips personalizados, OpenAI podría establecer estándares (como barras de rendimiento, características y requisitos de compatibilidad) que giran en torno a sus sistemas propietarios y patentes intelectuales , marginando las iniciativas de código abierto y los actores más pequeños que no pueden competir con los avances que dependen del hardware. Si tienes una idea, es posible que tengas que llevarla a OpenAI y suplicar por el soporte de hardware, de la misma manera que los técnicos están haciendo cola actualmente fuera de las puertas giratorias de NVIDIA.


El silicio personalizado crea una brecha de conocimiento y de acceso. Al diseñar hardware optimizado para arquitecturas de IA patentadas, OpenAI no solo acelera sus propios modelos, sino que también crea ecosistemas ininteligibles que los competidores no pueden aplicar ingeniería inversa ni replicar de manera efectiva. Esta asimetría de aprendizaje impide a los competidores aprender o innovar dentro del mismo paradigma, y utiliza la exclusividad como arma para frenar el progreso de toda la industria.


El hardware exclusivo se convierte en un bloqueo a la innovación , lo que permite a los proveedores controlar el ritmo del progreso y garantizar que permanezcan en el centro del próximo capítulo de la IA , uno en el que el talento y la creatividad sucumben al músculo del capital en bruto .

Detrás de fichas cerradas: la opacidad asegura el dominio

A diferencia del software, que puede modificarse mediante ingeniería inversa o bifurcarse, los procesos basados en hardware son físicamente opacos y difíciles de desmantelar sin gastar grandes cantidades de dinero. Esta capa impenetrable de abstracción actúa como la fortaleza definitiva que fortalece el derecho de OpenAI a ocupar el Trono de Hierro de la IA.


Eludir el escrutinio: rendición de cuentas sin respuestas


El silicio personalizado ofrece un escudo conveniente para los ojos escrutadores de los reguladores y las preguntas duras de los medios y los grupos de defensa mediante la adición de capas de complejidad que hacen que el funcionamiento interno de los sistemas sea más difícil de explicar, y aún más difícil de auditar. Las empresas pueden argumentar que ciertos resultados no son fallas de diseño deliberadas, sino subproductos de la interacción hardware-software, desviando el escrutinio al señalar la opacidad inherente del sistema.


También se podrían incorporar parámetros de rendimiento predecibles para reducir la variabilidad del sistema a la hora de implementarlo en entornos críticos específicos. Esta opacidad garantiza que las empresas no tengan que revelar desventajas o vulnerabilidades en sus modelos, especialmente en sectores como la atención sanitaria, las finanzas o la defensa, donde la fiabilidad es primordial.


Seguros internos: protegiendo las joyas de la corona


Dado que la mayoría de las empresas de IA dependen de una fuerza laboral distribuida, contratistas o proveedores de infraestructura en la nube, el riesgo de fuga de propiedad intelectual aumenta. Debido a la universalidad de los lenguajes y marcos de programación, el software es inherentemente portátil y replicable. Por el contrario, el desarrollo de hardware es altamente contextual , depende de conocimientos especializados y aislados y del acceso a procesos, instalaciones y líneas de fabricación específicos; esta compartimentación significa que ningún ingeniero tiene suficientes conocimientos o recursos para crear la magia para un competidor. Al fusionar innovaciones en chips, OpenAI vincula su propiedad intelectual a la infraestructura en lugar de a las personas , lo que minimiza el riesgo de perder ventaja competitiva cuando los ingenieros presentan su renuncia.

El efecto red: convertir la percepción en realidad


Al hacer que el funcionamiento interno de los sistemas de IA sea inaccesible, OpenAI garantiza que solo ellos puedan definir y controlar la narrativa de sus capacidades . De manera muy similar a cómo las GPU de NVIDIA se convirtieron en sinónimo de rendimiento de IA debido a los puntos de referencia optimizados para su arquitectura, OpenAI podría crear sus propias métricas vinculadas a su silicio, enmarcando las mejoras incrementales como un cambio de juego . La falta de transparencia también significa que los hitos de rendimiento selectivos (por ejemplo, "inferencia 5 veces más rápida") logrados a través de optimizaciones de hardware menores pueden comercializarse como avances genuinos , cosechando los beneficios de ser percibidos como pioneros mientras se ocultan las compensaciones o limitaciones.


Sin ninguna manera de comparar o validar las afirmaciones, los clientes, los inversores y los medios de comunicación se ven obligados a confiar en el discurso de relaciones públicas de la empresa. Una mentira puede viajar al otro lado del mundo mientras la verdad todavía se está poniendo los zapatos: pronto todos nos estaremos tragando esta versión manipulada de la “innovación”, entregando el dinero y los titulares, y el dominio fabricado se convierte en una realidad tangible.

Esta ilusión es tanto una estrategia de marca como una estrategia técnica, que transforma la opacidad en una herramienta para mantener el liderazgo en el mercado.

Perspectivas para 2025: habrá innovación, pero no para usted


El hardware es un cuello de botella, pero la tecnología nunca ha disminuido su velocidad ante un obstáculo. Pero no se dejen engañar: los verdaderos avances servirán para consolidar la influencia corporativa y el control competitivo, mientras que las novedades que se presenten a los ciudadanos comunes y a las empresas serán capturas de datos disfrazadas de capas de relaciones públicas.

Juguetes de consumo: datos, distracciones y la guardia baja

¿Crees que la carga de trabajo de desarrollo de hardware va a paralizar las operaciones de los consumidores? No, las cosas parecerán acelerarse , porque solo seguiremos entregando nuestros datos de comportamiento a cambio de " progreso ". Pero ahora que nuestros abuelos se divierten con los chatbots, la tecnología va a pasar de intentar cautivarte con mayordomos a trucos que parecen sacados de "Regreso al futuro". (No te preocupes, la tecnología le dará periódicamente un lavado de cara a esos peculiares asistentes para mantenerlos frescos en nuestro radar. Se informa que OpenAI está presentando un agente de IA llamado "Operator" en enero de 2025. Las fuentes indican que Operator interactuará directamente con tu computadora, funcionando principalmente como una herramienta de mejora del flujo de trabajo y del navegador web, automatizando tareas y agilizando la experiencia en línea. Es decir, un espía de escritorio).


Los peces gordos pasarán del software a los aparatos elegantes para atraer a los sofisticados : Altman acaba de fichar a Caitlin Kalinowski, exdirectora de hardware de Orion; Zuck está trabajando en manos robóticas; incluso Cook está considerando la idea de dispositivos domésticos inteligentes. Wall Street llevará lo absurdo al mercado, desde productos extravagantes como el espeluznante collar de Friend hasta aplicaciones cuestionables como Daze.


La publicidad incesante y los titulares no solo nos impulsarán a comprar, sino que erosionarán nuestras defensas y nos prepararán para aceptar con alegría lo que el futuro de la IA aumentada por hardware nos depare.

Herramientas empresariales: escalar en profundidad, no en amplitud

El dinero real está en las billeteras de las instituciones, no de los individuos. Pero las empresas solo adoptarán soluciones que las afecten donde más les duele, lo que significa que la IA necesita ir más allá de los puntos débiles superficiales. El año que viene no se tratará de herramientas de uso general para ablandar a las empresas ante la idea de la IA, sino de modelos específicos de dominio que expongan a los algoritmos a todas las complejidades esenciales de cada sector, departamento, equipo y empleado.


Un buen ejemplo es Microsoft , en colaboración con Siemens , Bayer y Rockwell , que acaba de lanzar un conjunto de modelos de IA para abordar desafíos específicos en los sectores de la fabricación, la agricultura y los servicios financieros. Las empresas emergentes de IA especializadas en nichos específicos también están cosechando beneficios: Breakr para el marketing musical, Dreamwell para la automatización de influencers, Beeble para efectos visuales, y eso solo en los últimos meses. Los analistas predicen que la capitalización de mercado de la IA vertical será al menos diez veces mayor que la del SaaS vertical tradicional.

Genio guardado: pioneros para el prestigio

Las empresas tecnológicas están reservando su potencia para avances transformadores que unirán su futuro con el de la élite: los gigantes corporativos y los gobiernos. OpenAI le está presentando a Trump un plan para la infraestructura de inteligencia artificial de EE. UU., y Anthropic acaba de asociarse con el contratista de defensa Palantir para "procesar grandes cantidades de datos complejos rápidamente, mejorar los conocimientos basados en datos, identificar patrones y tendencias de manera más efectiva, agilizar la revisión y preparación de documentos y ayudar a los funcionarios estadounidenses a tomar decisiones más informadas en situaciones urgentes". Microsoft se está asociando con BlackRock, IBM está en la cama con AWS y Google se fue a Arabia Saudita .


¿Qué hay detrás de estas colaboraciones? Solo el tiempo lo dirá.

Reflexiones finales: un estudio de caso para el Salón de la Fama de las Relaciones Públicas


La historia de la IA para todos (una promesa de innovación compartida y acceso universal) siempre pareció demasiado buena para ser verdad. Pero en retrospectiva, ¿podría ser que los mismos visionarios que descifraron el código de la inteligencia hayan sido realmente sorprendidos por la inevitabilidad del silicio a medida y las inversiones multimillonarias?


Este autor no está convencido.


Y ahora, al enmarcar el cambio de hardware como una respuesta heroica a las crecientes demandas de la IA, empresas como OpenAI eluden hábilmente la realidad hacia la que han estado construyendo su exclusividad desde el principio.


“Abierto” siempre fue un ejercicio de marca, una trama de relaciones públicas que se gestó durante décadas y la democracia solo un eslogan.


Quizás el aspecto más revolucionario de la IA no sea la tecnología, sino la narrativa que nos vendieron.