informatica:software:open_webui
Diferencias
Muestra las diferencias entre dos versiones de la página.
| Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
| informatica:software:open_webui [2026/03/20 21:02] – tempwin | informatica:software:open_webui [2026/03/20 21:43] (actual) – tempwin | ||
|---|---|---|---|
| Línea 6: | Línea 6: | ||
| * [[https:// | * [[https:// | ||
| + | * [[https:// | ||
| ===== Integración de Ollama ===== | ===== Integración de Ollama ===== | ||
| + | [[ollama|Ollama]] debe estar funcionando y escuchando en el puerto 11434 a todas las interfaces de la red. Si no es así, y usamos SystemD tenemos que editar el servicio: | ||
| + | < | ||
| + | sudo systemctl edit ollama | ||
| + | </ | ||
| + | |||
| + | Y añadimos: | ||
| + | |||
| + | < | ||
| + | [Service] | ||
| + | Environment=" | ||
| + | </ | ||
| + | |||
| + | Reiniciamos: | ||
| + | |||
| + | < | ||
| + | sudo systemctl daemon-reexec | ||
| + | sudo systemctl restart ollama | ||
| + | </ | ||
| + | |||
| + | Verificamos: | ||
| + | |||
| + | < | ||
| + | ss -tulnp | grep 11434 | ||
| + | </ | ||
| + | |||
| + | Si aparece algo como: | ||
| + | |||
| + | < | ||
| + | 0.0.0.0: | ||
| + | </ | ||
| + | |||
| + | También sería válido: | ||
| + | |||
| + | < | ||
| + | *:11434 | ||
| + | </ | ||
| + | |||
| + | Significa que Ollama ya está escuchando en todas las interfaces. | ||
| + | |||
| + | Ejecutaremos Open WebUI como contenedor Docker: | ||
| + | |||
| + | <code yaml> | ||
| + | services: | ||
| + | app: | ||
| + | image: ghcr.io/ | ||
| + | ports: | ||
| + | - 3000:8080 | ||
| + | environment: | ||
| + | - OLLAMA_BASE_URL=http:// | ||
| + | - WEBUI_AUTH=False | ||
| + | </ | ||
| + | |||
| + | En el ejemplo anterior, '' | ||
| + | |||
| + | < | ||
| + | ip addr show docker0 | ||
| + | </ | ||
| + | |||
| + | Prueba de conexión con Ollama: | ||
| + | |||
| + | < | ||
| + | docker run --rm curlimages/ | ||
| + | </ | ||
| + | |||
| + | Si se establece la conexión, veremos el mensaje: | ||
| + | |||
| + | < | ||
| + | Ollama is running | ||
| + | </ | ||
| + | |||
| + | ===== Pruebas con modelos LLM ===== | ||
| + | |||
| + | Para pruebas no se necesitan modelos grandes. Prioriza: | ||
| + | |||
| + | * Rapidez | ||
| + | * Bajo consumo | ||
| + | |||
| + | Los modelos de 3B–7B parámetros son ideales para esto. | ||
| + | |||
| + | Por ejemplo, el modelo '' | ||
informatica/software/open_webui.1774036941.txt.gz · Última modificación: por tempwin
