Herramientas de usuario

Herramientas del sitio


informatica:software:open_webui

Open WebUI

Open WebUI es una interfaz web de código abierto diseñada para interactuar con modelos de lenguaje grandes (LLMs).

Open WebUI es como un “ChatGPT autoalojado” que puedes conectar a distintos modelos de lenguaje, ya sean locales o en la nube.

Integración de Ollama

Ollama debe estar funcionando y escuchando en el puerto 11434 a todas las interfaces de la red. Si no es así, y usamos SystemD tenemos que editar el servicio:

sudo systemctl edit ollama

Y añadimos:

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

Reiniciamos:

sudo systemctl daemon-reexec
sudo systemctl restart ollama

Verificamos:

ss -tulnp | grep 11434

Si aparece algo como:

0.0.0.0:11434

También sería válido:

*:11434

Significa que Ollama ya está escuchando en todas las interfaces.

Ejecutaremos Open WebUI como contenedor Docker:

services:
  app:
    image: ghcr.io/open-webui/open-webui
    ports:
      - 3000:8080
    environment:
      - OLLAMA_BASE_URL=http://172.17.0.1:11434
      - WEBUI_AUTH=False

En el ejemplo anterior, 172.17.0.1 es la IP de del host. Podemos averiguar la nuestra con:

ip addr show docker0

Prueba de conexión con Ollama:

docker run --rm curlimages/curl curl http://172.17.0.1:11434

Si se establece la conexión, veremos el mensaje:

Ollama is running

Pruebas con modelos LLM

Para pruebas no se necesitan modelos grandes. Prioriza:

  • Rapidez
  • Bajo consumo

Los modelos de 3B–7B parámetros son ideales para esto.

Por ejemplo, el modelo llama3.2 o mistral:7b si tenemos más de 8 GB de RAM.

informatica/software/open_webui.txt · Última modificación: por tempwin