Ejecutar un gran modelo de lenguaje (LLM) en su ordenador es ahora más fácil que nunca. Con sólo su PC, puede ejecutar modelos como Llama, Mistral o Phi, de forma privada y offline. Esta guía le mostrará cómo configurar un LLM de código abierto localmente, explicará las herramientas involucradas y le guiará por los métodos de instalación de la interfaz de usuario y de la línea de comandos. Lo que cubriremos Comprensión de los LLM de código abierto Elegir una plataforma para ejecutar LLMs localmente Instalación de Ollama Instalar y ejecutar LLMs a través de la línea de comandos Gestión de modelos y recursos Uso de Ollama con otras aplicaciones Resolución de problemas y problemas comunes Por qué ejecutar LLMs localmente importa Conclusión Comprensión de los LLM de código abierto Un modelo de lenguaje grande de código abierto es un tipo de IA que puede entender y generar texto, al igual que ChatGPT. Puede descargar los archivos de modelo, ejecutarlos en su máquina e incluso ajustarlos para sus casos de uso. Proyectos como Llama 3, Mistral, Gemma y Phi han hecho posible ejecutar modelos que se ajustan bien al hardware de los consumidores. Ejecutar estos modelos localmente le da privacidad, control y flexibilidad. También ayuda a los desarrolladores a integrar funciones de IA en sus aplicaciones sin depender de las APIs en la nube. Elegir una plataforma para ejecutar LLMs localmente Para ejecutar un modelo de código abierto, necesita una plataforma que pueda cargarlo, gestionar sus parámetros y proporcionar una interfaz para interactuar con él. Tres opciones populares para la configuración local son: Ollama — un sistema fácil de usar que ejecuta modelos como OpenAI GPT OSS, Google Gemma con un comando. LM Studio — una aplicación de escritorio gráfico para aquellos que prefieren una interfaz de punto y clic. Gpt4All — otra popular aplicación de escritorio GUI. Utilizaremos Ollama como ejemplo en esta guía ya que es ampliamente soportado e integrado fácilmente con otras herramientas. Instalación de Ollama proporciona un instalador de un solo clic que establece todo lo que necesita para ejecutar los modelos locales. Ollón Visite el sitio web oficial de Ollama y descargue el instalador de Windows. Una vez descargado, haga doble clic en el archivo para iniciar la instalación.El asistente de configuración le guiará a través del proceso, que solo tarda unos minutos. Cuando la instalación finalice, Ollama se ejecutará en el fondo como un servicio local. Puedes acceder a ella a través de su interfaz gráfica de escritorio o usando la línea de comandos. Después de instalar Ollama, puede abrir la aplicación desde el Menú Inicio. La interfaz de usuario hace que sea fácil para los principiantes comenzar a interactuar con los modelos locales. Dentro de la interfaz Ollama, verá una simple caja de texto donde puede escribir prompts y recibir respuestas. Para descargar y usar un modelo, simplemente seleccionarlo de la lista. Ollama recogerá automáticamente los pesos del modelo y los cargará a la memoria. La primera vez que usted hace una pregunta, se descargará el modelo si no existe. . Modelos de página de búsqueda Voy a utilizar el modelo, que es el modelo más pequeño disponible en Ollama. Gemma 270m Puede ver que el modelo se descarga cuando se utiliza por primera vez. Dependiendo del tamaño del modelo y del rendimiento de su sistema, esto puede tardar unos minutos. Una vez cargado, puede comenzar a chatear o ejecutar tareas directamente dentro de la interfaz de usuario. Está diseñado para parecer y sentirse como una ventana de chat normal, pero todo se ejecuta localmente en su PC. Usted no necesita una conexión a Internet después de que el modelo se ha descargado. Instalar y ejecutar LLMs a través de la línea de comandos Si prefiere más control, puede utilizar la interfaz de línea de comandos Ollama (CLI).Esto es útil para desarrolladores o aquellos que desean integrar modelos locales en scripts y flujos de trabajo. Para abrir la línea de comandos, busque “Command Prompt” o “PowerShell” en Windows y ejecute. Para comprobar si la instalación funcionó, escriba: ollama --version Si ve un número de versión, Ollama está listo.Siguiente, para ejecutar su primer modelo, use el comando de arrastre: ollama pull gemma3:270m Esto descargará el modelo Gemma a su máquina. Una vez finalizado el proceso, comienza con: ollama run gemma3:270m Ollama lanzará el modelo y abrirá un prompt interactivo donde puede escribir mensajes. Todo sucede localmente, y sus datos nunca salen de su ordenador. Puede detener el modelo en cualquier momento escribiendo . /bye Gestión de modelos y recursos Cada modelo que descargas ocupa espacio en el disco y memoria. Los modelos más pequeños como Phi-3 Mini o Gemma 2B son más ligeros y adecuados para la mayoría de los portátiles de consumo. los más grandes como Mistral 7B o Llama 3 8B requieren GPUs más potentes o CPUs de alta gama. Puede listar todos los modelos instalados utilizando: ollama list Y elimina uno cuando ya no lo necesites: ollama rm model_name Si su PC tiene RAM limitada, intente ejecutar modelos más pequeños primero.Puede experimentar con diferentes para encontrar el equilibrio correcto entre velocidad y precisión. Uso de Ollama con otras aplicaciones Una vez que hayas instalado Ollama, puedes usarlo más allá de la interfaz de chat. Los desarrolladores pueden conectarse a ella usando APIs y puertos locales. Ollama ejecuta un servidor local en Esto significa que puede enviar solicitudes desde sus propios scripts o aplicaciones. http://localhost:11434 Por ejemplo, un simple script de Python puede llamar al modelo local de la siguiente manera: import requests, json # Define the local Ollama API endpoint url = "http://localhost:11434/api/generate" # Send a prompt to the Gemma 3 model payload = { "model": "gemma3:270m", "prompt": "Write a short story about space exploration." } # stream=True tells requests to read the response as a live data stream response = requests.post(url, json=payload, stream=True) # Ollama sends one JSON object per line as it generates text for line in response.iter_lines(): if line: data = json.loads(line.decode("utf-8")) # Each chunk has a "response" key containing part of the text if "response" in data: print(data["response"], end="", flush=True)This setup turns your computer into a local AI engine. You can integrate it with chatbots, coding assistants, or automation tools without using external APIs. Resolución de problemas y problemas comunes Si tiene problemas para ejecutar un modelo, compruebe primero los recursos del sistema.Los modelos necesitan suficiente espacio RAM y disco para cargar correctamente.El cierre de otras aplicaciones puede ayudar a liberar la memoria. A veces, el software antivirus puede bloquear puertos de red locales.Si Ollama no inicia, añádelo a la lista de programas permitidos. Si utiliza el CLI y ve errores sobre los controladores de GPU, asegúrese de que sus controladores gráficos estén actualizados. Ollama soporta la ejecución de CPU y GPU, pero tener los controladores actualizados mejora el rendimiento. Por qué ejecutar LLMs localmente importa Ejecutar LLMs localmente cambia la forma en que trabajas con la IA. Es ideal para los desarrolladores que quieren prototipar rápidamente, los investigadores que exploran el ajuste perfecto o los aficionados que valoran la privacidad. Los modelos locales también son excelentes para entornos offline.Puedes experimentar con diseños rápidos, generar contenido o probar aplicaciones asistidas por IA sin conexión a Internet. A medida que el hardware mejore y las comunidades de código abierto crezcan, la IA local seguirá siendo más poderosa y accesible. Conclusión Con herramientas como Ollama y LM Studio, puede descargar un modelo, ejecutarlo localmente y comenzar a generar texto en minutos. La interfaz de usuario lo hace amigable para los principiantes, mientras que la línea de comandos ofrece un control total para los desarrolladores. Ya sea que esté construyendo una aplicación, probando ideas o explorando la IA para su uso personal, ejecutar modelos localmente lo pone todo en sus manos, lo que lo hace rápido, privado y flexible. Espero que te haya gustado este artículo. Suscríbete a mi newsletter gratuita TuringTalks.ai para obtener más tutoriales prácticos sobre IA. Suscríbete a mi newsletter gratuita TuringTalks.ai para obtener más tutoriales prácticos sobre IA. TuringTalks.es