¡Prepárense amigos, la IA se está apoderando del mundo!
Bueno, tal vez aún no haya llegado a ese punto. Pero aún así, no se puede negar el nivel de impacto que ha tenido en los últimos 12 meses.
Lo extraño de todo esto es que la “ inteligencia artificial ” como concepto y como campo de estudio no es tan nueva, pero “se siente” nueva con todos los chatbots y herramientas impulsadas por IA que han surgido este año.
Más importante que eso es el hecho de que a estas alturas del año pasado, la única herramienta de inteligencia artificial ampliamente conocida era GPT-3 y luego ChatGPT. Pero ahora puede resultarle difícil realizar un seguimiento de todas las diferentes herramientas de inteligencia artificial, chatbots y LLM disponibles.
Todo lo cual se divide en 2 categorías:
Código cerrado (como ChatGPT y Claude)
Código abierto (como Falcon o Mistral)
Y aquí es donde se pone interesante.
Por más populares y pulidos que puedan ser los modelos de IA patentados, hay modelos de código abierto que están causando sensación en el espacio de la IA y superando su categoría de peso.
Eso es lo que veremos en este artículo. Con una tecnología tan revolucionaria como la IA, ¿es el software propietario, similar a una caja negra, el camino, o el código abierto es una mejor opción?
Esta y otras preguntas serán respondidas en el episodio de hoy.
Para empezar, todo el proceso científico se ha construido sobre principios de honestidad, integridad y transparencia. Implica apertura, colaboración y revisiones por pares para validar los hallazgos.
Muchos de los mayores avances científicos del mundo, como la pasteurización, la penicilina y los fertilizantes, fueron posibles gracias al trabajo colaborativo de muchos científicos a lo largo de los años.
A menudo, abordaban un gran problema en el que carecían de recursos en ese momento. Publicaron sus hallazgos y los científicos muchos años después los utilizaron como base para desarrollar una solución al problema original en beneficio de la humanidad.
Y esto también se aplica a la tecnología de código abierto. El mundo cambió cuando las computadoras pasaron de ser máquinas enormes que ocupaban habitaciones enteras a dispositivos que cada hogar puede tener.
Y después vino Internet, que fue otro paso adelante al permitir que muchas personas accedieran a la tecnología en lugar de unos pocos privilegiados.
Tim Berners-Lee inventó la World Wide Web en 1989 y la puso a disposición de todos de forma gratuita, sin patentes ni regalías. Esto impulsó el rápido crecimiento de Internet y las numerosas innovaciones que se produjeron en la siguiente década.
Una historia similar ocurre con los sistemas operativos, piense en Windows versus Linux. Y lo mismo ha ocurrido con las tecnologías web.
Con todos estos ejemplos anteriores, es lógico que una tecnología tan transformadora como la IA pueda (o deba) seguir un camino similar.
Entonces, veamos cómo ambas partes (IA cerrada y de código abierto) han progresado este año.
Por ahora, no es novedad para nadie el impacto que tuvo ChatGPT cuando fue lanzado en noviembre pasado. Y durante el resto del año, la IA propietaria se convirtió en la comidilla de la ciudad.
En marzo de 2023, se lanzó el sucesor del GPT-3, el GPT-4. Ese evento desató la carrera de la IA.
Muy pronto, Google se unió a la refriega con Bard . Luego vino Anthropic, fundada por ex investigadores de OpenAI, y lanzó Claude , un contendiente del popular ChatGPT.
OpenAI es, a día de hoy, la empresa con más “hits” del mercado.
Esos son los modelos GPT, diferentes versiones de Dall-E y Whisper. Microsoft también está ahí arriba con su nuevo y mejorado Bing Chat (que se basa en la tecnología OpenAI) y el Copilot, que pronto se incluirá en todas partes.
Google se unió a la carrera con el proyecto de investigación inicial Bard, que al principio decepcionó a todos y nos hizo prestar más atención a Microsoft y sus iniciativas. Pero después de ese proyecto de “feria de ciencias”, Google intensificó su juego y lanzó ofertas como Vertex AI, PaLM (y PaLM2), Imagen y Codey.
Y luego está Anthropic con diferentes versiones de su poderoso Claude (Claude-instant, Claude 2). Lo interesante es el enfoque que han utilizado para entrenar a Claude, lo que llaman "IA constitucional". Este enfoque pone la seguridad en primer plano y ayuda a crear una IA que esté alineada con los intereses y valores humanos.
Se trata de grandes avances en el campo de la IA que son más conocidos gracias a que son desarrollados por empresas que cuentan con varios empleados, amplios recursos y grandes departamentos de marketing.
Ahora, veamos la otra cara de la moneda.
Desde el lanzamiento de GPT-4, no sólo los gigantes tecnológicos se han sumado a la carrera de la IA, sino que también han surgido otros proyectos independientes. Esto es posible gracias a marcos de aprendizaje automático de código abierto como TensorFlow y PyTorch.
Stability AI lanzó Stable Diffusion , una alternativa a Dall-E, y muchos entusiastas de la tecnología han experimentado ampliamente con sus capacidades hasta el punto de que generó preocupaciones éticas con respecto a la naturaleza del arte y la creatividad.
Meta anunció el lanzamiento de un modelo de lenguaje grande cuasi abierto llamado LLaMA (con varios tamaños de modelo y luego una segunda versión).
Ese modelo, junto con los servicios de Hugging Face (como Gradio, Spaces, Transformers), provocó una revolución porque, por primera vez, personas de todo el mundo tuvieron acceso a tecnología de código abierto que rivalizaba con ChatGPT o PaLM.
¿Y sabes qué sucede cuando un grupo de técnicos, hackers y entusiastas de la tecnología tienen suficiente tiempo y recursos? Sí, pueden volverse locos construyendo cosas.
Los foros especializados de Internet y los canales IRC de los años 90 con la llegada de Internet fueron reemplazados por discusiones de Hugging Face, problemas de GitHub y servidores de Discord.
Otra cosa que contribuyó al crecimiento del código abierto fue el conjunto de datos Pile de EleutherAI. Esta iniciativa ayudó a avanzar en el aprendizaje autosupervisado y no supervisado, reduciendo la necesidad de grandes conjuntos de datos etiquetados.
Con los grandes modelos de lenguaje, los conjuntos de datos para entrenarlos/afinarlos y los requisitos reducidos de computación, pronto surgió todo un ecosistema de productos y servicios.
(Cuando digo requisitos reducidos para la informática, me refiero a que los LLM no necesitan una gran cantidad de parámetros para producir la calidad de los resultados generados por los modelos propietarios, esto lo demuestran modelos como LLaMA 13B y Mistral 7B ).
Hay un montón de proyectos, modelos previamente entrenados y ajustados, conjuntos de datos y herramientas en este espacio disponibles para todos los que quieran participar y colaborar con otros.
Ahora tenemos diferentes tipos de chatbots que no dependen de GPT-3/GPT-4 para funcionar, como Zephyr-chat, LLaMA2-chat, Mistral-instruct y Falcon-chat.
LLM optimizados para la generación y asistencia de código como Code-LLaMA , CodeGen y StarCoder .
Un modelo de lenguaje multilingüe de acceso abierto llamado Bloom .
LLM multimodales (que no sean solo de texto) como LLaVA y Fuyu .
Una tabla de clasificación de Hugging Face que evalúa y clasifica todos los modelos de código abierto existentes.
Varios conjuntos de datos para la capacitación previa y el ajuste de LLM como RedPajama u OpenOrca .
Y más recientemente tenemos modelos más autónomos llamados "agentes de IA".
Los más populares funcionan con GPT-3.5, pero hay otros basados en LLaMA.
Y parece que estamos corriendo para crear agentes que no se queden atrapados en bucles o que puedan finalizar tareas de forma independiente sin arrojar un montón de texto que parezca convincente pero que sea inexacto o simplemente incorrecto.
Ha habido un gran progreso sólo en los últimos 6 meses y pueden estar seguros de que ningún frente muestra signos de desaceleración.
Incluso con todo el progreso vertiginoso y vertiginoso que hemos visto el año pasado, todavía estamos en las primeras etapas del desarrollo de la IA. Hay varias cosas que debemos descubrir, diferentes aspectos a considerar, como la privacidad de la IA, la ética, los sesgos incorporados, etc.
Como ocurre con todo en la vida, ningún lado está completamente equivocado y el otro tiene razón. Tanto la IA patentada como la de código abierto tienen sus ventajas y desventajas.
La IA patentada puede aprovechar una mayor cantidad de recursos para entrenar modelos nuevos y más potentes, al tiempo que brinda acceso a personas a una escala más amplia. Pero operan como una caja negra, carecen de observabilidad y sus intereses podrían estar más alineados con los grandes actores con dinero que con los del consumidor normal.
La IA de código abierto, por otro lado, se beneficia de la colaboración, la transparencia y la innovación abierta a nivel mundial. Pero carece de organización, de recursos para iniciativas más ambiciosas y está en riesgo si se establecen regulaciones más estrictas.
La pregunta ahora es cómo podemos mantener el progreso en la IA de manera híbrida.
Una forma en la que podamos colaborar conjuntamente con algunas de las mentes más brillantes del espacio y con los recursos necesarios para impulsar esta innovación de una manera responsable que ponga la seguridad y la privacidad en primer plano.
Una forma en la que los intereses y beneficios de unos pocos no superen los del resto de nosotros. Una manera en la que tecnologías tan revolucionarias como la IA no sean privatizadas, restringidas o utilizadas como armas contra grupos de personas consideradas “enemigas” de las grandes potencias.
Estamos en un momento único en la historia donde las decisiones que tomemos y la forma en que manejemos la tecnología determinarán cómo se configurará el futuro, para bien o para mal.
Gracias por leer.
No olvides