¡Esta es una revisión vieja del documento!
Tabla de Contenidos
Open WebUI
Open WebUI es una interfaz web de código abierto diseñada para interactuar con modelos de lenguaje grandes (LLMs).
Open WebUI es como un “ChatGPT autoalojado” que puedes conectar a distintos modelos de lenguaje, ya sean locales o en la nube.
Integración de Ollama
Ollama debe estar funcionando y escuchando en el puerto 11434 a todas las interfaces de la red. Si no es así, y usamos SystemD tenemos que editar el servicio:
sudo systemctl edit ollama
Y añadimos:
[Service] Environment="OLLAMA_HOST=0.0.0.0:11434"
Reiniciamos:
sudo systemctl daemon-reexec sudo systemctl restart ollama
Verificamos:
ss -tulnp | grep 11434
Si aparece algo como:
0.0.0.0:11434
También sería válido:
*:11434
Significa que Ollama ya está escuchando en todas las interfaces.
Ejecutaremos Open WebUI como contenedor Docker:
services: app: image: ghcr.io/open-webui/open-webui ports: - 3000:8080 environment: - OLLAMA_BASE_URL=http://172.17.0.1:11434 - WEBUI_AUTH=False
En el ejemplo anterior, 172.17.0.1 es la IP de del host. Podemos averiguar la nuestra con:
ip addr show docker0
Prueba de conexión con Ollama:
docker run --rm curlimages/curl curl http://172.17.0.1:11434
Si se establece la conexión, veremos el mensaje:
Ollama is running
Pruebas con modelos LLM
Para probar la integración con Ollama, podemos usar el modelo llama3.2.
