🧠 Cómo instalar Ollama en Debian 12 (tutorial completo)
Ollama es una herramienta que permite ejecutar modelos de lenguaje (LLMs) como LLaMA, Mistral o Gemma directamente en tu ordenador, sin necesidad de depender de servicios externos.
A continuación, te explico cómo instalarlo en Debian 12.
Tabla de contenidos
✅ Requisitos previos
- Un sistema con Debian 12 instalado (físico o virtual).
 - Acceso a terminal con permisos de sudo.
 - Conexión a Internet.
 - Recomendado: 8 GB de RAM o más.
 
🔧 Paso 1: Instalar Ollama
Abre una terminal y ejecuta:
curl -fsSL https://ollama.com/install.sh | sh
Introduce tu contraseña cuando lo pida.
Esto descargará e instalará Ollama en /usr/local/bin/ollama.
🧪 Paso 2: Verificar que Ollama funciona
Después de la instalación, ejecuta:
ollama run llama3
Esto descargará el modelo LLaMA 3 (unos 4.7 GB) y lo ejecutará en modo interactivo.
Escribe una pregunta como:
>>> ¿Qué es la teoría de la relatividad?
Y recibirás una respuesta generada por el modelo.
🌐 Paso 3: Hacer que Ollama escuche en la red local
Por defecto, Ollama solo está disponible en localhost. Si quieres acceder desde otro dispositivo de tu red (por ejemplo, desde otro ordenador), sigue estos pasos:
3.1 Editar el servicio de systemd
Ejecuta:
sudo systemctl edit ollama.service
Se abrirá un editor. Añade lo siguiente:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Guarda y sal (Ctrl+O, Enter, Ctrl+X si usas nano).
3.2 Recargar systemd y reiniciar el servicio
sudo systemctl daemon-reexec
sudo systemctl daemon-reload
sudo systemctl restart ollama
🧪 Paso 4: Probar la conexión desde otro dispositivo
Desde otro equipo de tu red local, haz:
curl http://IP_DEL_SERVIDOR:11434
Por ejemplo, si tu Debian tiene IP 192.168.1.50:
curl http://192.168.1.50:11434
Deberías recibir:
{"message":"Ollama is running"}
🧠 Paso 5: Usar la API de Ollama
Puedes generar texto desde otro equipo con:
curl http://192.168.1.50:11434/api/generate -H "Content-Type: application/json" -d '{
  "model": "llama3",
  "prompt": "Explica qué es la computación cuántica.",
  "stream": false
}'
🧯 Problemas frecuentes
- Si 
curlse queda colgado, asegúrate de que el modelo está descargado y cargado en memoria (ollama run llama3). - Asegúrate de no tener un firewall bloqueando el puerto 
11434. - Verifica que estás usando la IP correcta del servidor.
 
✅ Conclusión
Con estos pasos ya tienes un servidor LLM funcionando en tu Debian 12, accesible desde tu red local. Puedes integrarlo en webs, apps o usarlo como asistente personal sin depender de la nube.