Herramientas de usuario

Herramientas del sitio


informatica:software:open_webui

¡Esta es una revisión vieja del documento!


Open WebUI

Open WebUI es una interfaz web de código abierto diseñada para interactuar con modelos de lenguaje grandes (LLMs).

Open WebUI es como un “ChatGPT autoalojado” que puedes conectar a distintos modelos de lenguaje, ya sean locales o en la nube.

Integración de Ollama

Ollama debe estar funcionando y escuchando en el puerto 11434 a todas las interfaces de la red. Si no es así, y usamos SystemD tenemos que editar el servicio:

sudo systemctl edit ollama

Y añadimos:

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

Reiniciamos:

sudo systemctl daemon-reexec
sudo systemctl restart ollama

Verificamos:

ss -tulnp | grep 11434

Si aparece algo como:

0.0.0.0:11434

También sería válido:

*:11434

Significa que Ollama ya está escuchando en todas las interfaces.

Ejecutaremos Open WebUI como contenedor Docker:

services:
  app:
    image: ghcr.io/open-webui/open-webui
    ports:
      - 3000:8080
    environment:
      - OLLAMA_BASE_URL=http://172.17.0.1:11434
      - WEBUI_AUTH=False

En el ejemplo anterior, 172.17.0.1 es la IP de del host. Podemos averiguar la nuestra con:

ip addr show docker0

Prueba de conexión con Ollama:

docker run --rm curlimages/curl curl http://172.17.0.1:11434

Si se establece la conexión, veremos el mensaje:

Ollama is running
informatica/software/open_webui.1774038541.txt.gz · Última modificación: por tempwin