Aprende Inteligencia Artificial y Acelera tu Futuro

Descubre cómo la IA puede multiplicar tu productividad y cambiar tu forma de trabajar.

Acceder al Curso Ahora

🧠 Cómo instalar Ollama en Debian 12 (tutorial completo)

Ollama es una herramienta que permite ejecutar modelos de lenguaje (LLMs) como LLaMA, Mistral o Gemma directamente en tu ordenador, sin necesidad de depender de servicios externos.

A continuación, te explico cómo instalarlo en Debian 12.


✅ Requisitos previos

  • Un sistema con Debian 12 instalado (físico o virtual).
  • Acceso a terminal con permisos de sudo.
  • Conexión a Internet.
  • Recomendado: 8 GB de RAM o más.

🔧 Paso 1: Instalar Ollama

Abre una terminal y ejecuta:

curl -fsSL https://ollama.com/install.sh | sh

Introduce tu contraseña cuando lo pida.
Esto descargará e instalará Ollama en /usr/local/bin/ollama.


🧪 Paso 2: Verificar que Ollama funciona

Después de la instalación, ejecuta:

ollama run llama3

Esto descargará el modelo LLaMA 3 (unos 4.7 GB) y lo ejecutará en modo interactivo.
Escribe una pregunta como:

>>> ¿Qué es la teoría de la relatividad?

Y recibirás una respuesta generada por el modelo.


🌐 Paso 3: Hacer que Ollama escuche en la red local

Por defecto, Ollama solo está disponible en localhost. Si quieres acceder desde otro dispositivo de tu red (por ejemplo, desde otro ordenador), sigue estos pasos:

3.1 Editar el servicio de systemd

Ejecuta:

sudo systemctl edit ollama.service

Se abrirá un editor. Añade lo siguiente:

[Service]
Environment="OLLAMA_HOST=0.0.0.0"

Guarda y sal (Ctrl+O, Enter, Ctrl+X si usas nano).


3.2 Recargar systemd y reiniciar el servicio

sudo systemctl daemon-reexec
sudo systemctl daemon-reload
sudo systemctl restart ollama

🧪 Paso 4: Probar la conexión desde otro dispositivo

Desde otro equipo de tu red local, haz:

curl http://IP_DEL_SERVIDOR:11434

Por ejemplo, si tu Debian tiene IP 192.168.1.50:

curl http://192.168.1.50:11434

Deberías recibir:

{"message":"Ollama is running"}

🧠 Paso 5: Usar la API de Ollama

Puedes generar texto desde otro equipo con:

curl http://192.168.1.50:11434/api/generate -H "Content-Type: application/json" -d '{
  "model": "llama3",
  "prompt": "Explica qué es la computación cuántica.",
  "stream": false
}'

🧯 Problemas frecuentes

  • Si curl se queda colgado, asegúrate de que el modelo está descargado y cargado en memoria (ollama run llama3).
  • Asegúrate de no tener un firewall bloqueando el puerto 11434.
  • Verifica que estás usando la IP correcta del servidor.

✅ Conclusión

Con estos pasos ya tienes un servidor LLM funcionando en tu Debian 12, accesible desde tu red local. Puedes integrarlo en webs, apps o usarlo como asistente personal sin depender de la nube.

Tutoriales Más Vistos

Posts Más Vistos