Demasiado Largo; Para Leer
Todos hemos oído hablar de GPT-3 y tenemos una idea bastante clara de sus capacidades. Seguramente has visto algunas aplicaciones nacidas estrictamente debido a este modelo, algunas de las cuales cubrí en un video anterior sobre el modelo. GPT-3 es un modelo desarrollado por OpenAI al que puede acceder a través de una API paga pero no tiene acceso al modelo en sí.
Lo que hace que GPT-3 sea tan fuerte es tanto su arquitectura como su tamaño. Tiene 175 mil millones de parámetros. ¡Eso es el doble de la cantidad de neuronas que tenemos en nuestro cerebro!
Esta inmensa red fue entrenada en todo Internet para comprender cómo escribimos, intercambiamos y entendemos el texto. Esta semana, Meta ha dado un gran paso adelante para la comunidad. Acaban de lanzar un modelo que es igual de poderoso, si no más, y tiene un código completamente abierto. ¿Cuan genial es eso? Conoce más en el vídeo...