🧠 Cómo instalar Ollama en Debian 12 (tutorial completo)
Ollama es una herramienta que permite ejecutar modelos de lenguaje (LLMs) como LLaMA, Mistral o Gemma directamente en tu ordenador, sin necesidad de depender de servicios externos.
A continuación, te explico cómo instalarlo en Debian 12.
Tabla de contenidos
✅ Requisitos previos
- Un sistema con Debian 12 instalado (físico o virtual).
- Acceso a terminal con permisos de sudo.
- Conexión a Internet.
- Recomendado: 8 GB de RAM o más.
🔧 Paso 1: Instalar Ollama
Abre una terminal y ejecuta:
curl -fsSL https://ollama.com/install.sh | sh
Introduce tu contraseña cuando lo pida.
Esto descargará e instalará Ollama en /usr/local/bin/ollama
.
🧪 Paso 2: Verificar que Ollama funciona
Después de la instalación, ejecuta:
ollama run llama3
Esto descargará el modelo LLaMA 3 (unos 4.7 GB) y lo ejecutará en modo interactivo.
Escribe una pregunta como:
>>> ¿Qué es la teoría de la relatividad?
Y recibirás una respuesta generada por el modelo.
🌐 Paso 3: Hacer que Ollama escuche en la red local
Por defecto, Ollama solo está disponible en localhost
. Si quieres acceder desde otro dispositivo de tu red (por ejemplo, desde otro ordenador), sigue estos pasos:
3.1 Editar el servicio de systemd
Ejecuta:
sudo systemctl edit ollama.service
Se abrirá un editor. Añade lo siguiente:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Guarda y sal (Ctrl+O
, Enter
, Ctrl+X
si usas nano).
3.2 Recargar systemd y reiniciar el servicio
sudo systemctl daemon-reexec
sudo systemctl daemon-reload
sudo systemctl restart ollama
🧪 Paso 4: Probar la conexión desde otro dispositivo
Desde otro equipo de tu red local, haz:
curl http://IP_DEL_SERVIDOR:11434
Por ejemplo, si tu Debian tiene IP 192.168.1.50
:
curl http://192.168.1.50:11434
Deberías recibir:
{"message":"Ollama is running"}
🧠 Paso 5: Usar la API de Ollama
Puedes generar texto desde otro equipo con:
curl http://192.168.1.50:11434/api/generate -H "Content-Type: application/json" -d '{
"model": "llama3",
"prompt": "Explica qué es la computación cuántica.",
"stream": false
}'
🧯 Problemas frecuentes
- Si
curl
se queda colgado, asegúrate de que el modelo está descargado y cargado en memoria (ollama run llama3
). - Asegúrate de no tener un firewall bloqueando el puerto
11434
. - Verifica que estás usando la IP correcta del servidor.
✅ Conclusión
Con estos pasos ya tienes un servidor LLM funcionando en tu Debian 12, accesible desde tu red local. Puedes integrarlo en webs, apps o usarlo como asistente personal sin depender de la nube.