En esta guía te voy a explicar cuáles son los mejores programas para ejecutar IA en local. Todas estas herramientas son completamente gratuitas y te permitirán interactuar con modelos de lenguaje, tal y como lo harías con ChatGPT, pero sin que los datos salgan de tu equipo. Ten en cuenta que para algunos modelos es necesario contar con muchos recursos, especialmente si hablamos de LLM de gran tamaño. Sin embargo, en sí mismos, todos estos programas son muy ligeros y, si eliges un modelo pequeño, vas a poder utilizarlos incluso en ordenadores domésticos con poca potencia.
Tanto si conoces más herramientas de IA en local como si crees que hay un error en el texto, te invito a compartir tu opinión en los comentarios. De este modo, entre todo, seguro que hacemos de esta guía un contenido todavía más útil para todos. ¡Manos a la obra!
Índice de contenidos
Requisitos para ejecutar IA en local
Antes de mostrarte mis recomendaciones, te hablo brevemente sobre los requisitos para ejecutar IA en local. Algo que debes tener claro es que la ejecución de modelos se divide en dos partes. Por un lado, contamos con una interfaz de , que es la que te va a permitir interactuar con el modelo de lenguaje. Este sería el equivalente a ChatGPT, que no es más que una web desde la cual trabajar con los modelos GPT. Por otro lado, tenemos los modelos de IA en sí mismos, que son los que la interfaz se va a encargar de descargar y ejecutar.
Ejecutar las interfaces o programas para IA en local no requiere apenas recursos en tu PC. Todos los programas que te recomiendo aquí funcionarán perfectamente en tu portátil. Lo que pasa es que solo son el medio para acceder a lo que realmente consume recursos: ejecutar el modelo. Por eso, es importante que elijas bien cuál de ellos vas a ejecutar en tu ordenador para evitar saturarlo.
Los modelos de IA se clasifican por la cantidad de parámetros que tienen. Cuanto más alta sea esta cifra, más memoria RAM y potencia de cómputo vas a necesitar. Por ejemplo, si nos fijamos en DeepSeek, concretamente en DeepSeek-R1, dispone de versiones que van desde los 1.5 billones hasta los 671 billones de parámetros. Los modelos de DeepSeek de 1.5, 7 y 8 billones de parámetros se pueden ejecutar en gran cantidad de las máquinas actuales. Equipos con 8 GB de RAM serán capaces de mover los dos primeros, mientras que para el modelo 8b será necesario al menos 16 GB de RAM.
Si seguimos subiendo la apuesta y tratamos de ejecutar los modelos de 14 o 32 billones de parámetros, necesitaremos un hardware muy potente, con cantidades elevadas de memoria RAM y una buena GPU. Los modelos más grandes prácticamente no se pueden ejecutar en ningún ordenador doméstico. El más grande solo está disponible online, en la web de DeepSeek, o en un servidor que lo haya implementado (hay que recordar que es de código abierto).
Teniendo esto en cuenta, lo mejor es que tu PC cuente con al menos 16 GB de RAM, aunque si eliges modelos más pequeños podrías apañarte con 8 GB. Para modelos pequeños tampoco hace falta que tengas una tarjeta gráfica muy potente. De hecho, la U de tu ordenador podrá lidiar de forma bastante sencilla con modelos 1.5b, 7b y 8b. Si tienes 32 GB y una gráfica dedicada, vas a poder ejecutar modelos más complejos.
Mi consejo es que, sin importar el ordenador que tengas, descargues alguna de las aplicaciones que te recomiendo a continuación. Luego, empieza descargando modelos pequeños y ve subiendo el listón poco a poco. A medida que ejecutes modelos de IA en local más grandes, verás que el rendimiento se reduce. Esto te indicará cuándo debes parar de aumentar la cantidad de parámetros.
Los programas de IA en local que debes conocer e instalar ahora mismo
Después de aclarar toda la cuestión de los requisitos para la IA en local, es momento de ver qué programas son los más recomendables para ejecutar modelos directamente en tu PC.
Ollama
Ollama es un programa que permite ejecutar modelos de lenguaje directamente desde el CMD o la terminal de tu ordenador. Es compatible con Linux, Windows y macOS, así que lo vas a poder ejecutar en cualquier ordenador. Actualmente, cuenta con soporte a modelos muy conocidos, como DeepSeek-R1, Llama 3.3 o Mistral. Asimismo, Ollama actúa como un servidor que permite conectar los modelos de IA en local con aplicaciones.
Cada cierto tiempo, su equipo va agregando modelos de código abierto, así que, además de los ya mencionados, se espera que lleguen los más novedosos. En sí misma, esta aplicación apenas consume recursos. Toda la interacción, desde la descarga hasta el envío de prompts se efectúa mediante comandos. Algo interesante es que cuenta con varias versiones de un mismo modelo para que el pueda descargar el que más le convenga. Por ejemplo, yo he logrado ejecutar DeepSeek 7B con bastante solvencia en un PC con apenas 8 GB de RAM.
LM Studio
LM Studio es otra aplicación que te va a permitir chatear con modelos de lenguaje de código abierto. Por ejemplo, cuenta con soporte a Llama, DeepSeek, Mistral, Phi y muchos otros. A diferencia de Ollama, en este caso esta herramienta ofrece una interfaz de s amigable y muy sencilla de istrar. Dejando a un lado las opciones avanzadas que permiten modular las respuestas de los modelos, esta es una herramienta que se asemeja mucho a cualquier chatbot online.
Tal y como sucede con Ollama, LM Studio también actúa como un servidor para que las aplicaciones se conecten a tu ordenador para ejecutar tareas para las cuales es necesario un modelo de lenguaje. Obviamente, lo interesante es que esa interacción sucede dentro de tu PC gracias a la IA en local.
Jan.ai
Jan.ai es, con diferencia, una de las apps para ejecutar IA en local con la mejor interfaz que he encontrado. Se trata de una herramienta de código abierto compatible con los principales modelos de lenguaje de código abierto. Lo que más me ha gustado, como te digo, es que su aspecto es simple y minimalista.
Ahora bien, también permite aplicar parámetros a los modelos para ajustar las respuestas. Así que, aunque visualmente se parezca mucho a ChatGPT o a Mistral, lo cierto es que no renuncia a esa parte más técnica tan propia de la IA en local. Como el resto de las herramientas sugeridas, Jan.ai se postula como una vía de experimentación con los modelos que no debes pasar por alto.
¿Qué te han parecido estos programas de IA en local? ¿Has podido probar alguno en tu equipo? ¿Con qué modelos? Te leo más abajo.