Herramientas de usuario

Herramientas del sitio


informatica:software:open_webui

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anteriorRevisión previa
Próxima revisión
Revisión previa
informatica:software:open_webui [2026/03/20 21:24] – [Integración de Ollama] tempwininformatica:software:open_webui [2026/03/20 21:43] (actual) tempwin
Línea 10: Línea 10:
 ===== Integración de Ollama ===== ===== Integración de Ollama =====
  
-Ollama debe estar funcionando y escuchando en el puerto 11434 a todas las interfaces de la red. Si no es así, y usamos SystemD tenemos que editar el servicio:+[[ollama|Ollama]] debe estar funcionando y escuchando en el puerto 11434 a todas las interfaces de la red. Si no es así, y usamos SystemD tenemos que editar el servicio:
  
 <code> <code>
Línea 49: Línea 49:
  
 Significa que Ollama ya está escuchando en todas las interfaces. Significa que Ollama ya está escuchando en todas las interfaces.
 +
 +Ejecutaremos Open WebUI como contenedor Docker:
 +
 +<code yaml>
 +services:
 +  app:
 +    image: ghcr.io/open-webui/open-webui
 +    ports:
 +      - 3000:8080
 +    environment:
 +      - OLLAMA_BASE_URL=http://172.17.0.1:11434
 +      - WEBUI_AUTH=False
 +</code>
 +
 +En el ejemplo anterior, ''172.17.0.1'' es la IP de del host. Podemos averiguar la nuestra con:
 +
 +<code>
 +ip addr show docker0
 +</code>
 +
 +Prueba de conexión con Ollama:
 +
 +<code>
 +docker run --rm curlimages/curl curl http://172.17.0.1:11434
 +</code>
 +
 +Si se establece la conexión, veremos el mensaje:
 +
 +<code>
 +Ollama is running
 +</code>
 +
 +===== Pruebas con modelos LLM =====
 +
 +Para pruebas no se necesitan modelos grandes. Prioriza:
 +
 +  * Rapidez
 +  * Bajo consumo
 +
 +Los modelos de 3B–7B parámetros son ideales para esto.
 +
 +Por ejemplo, el modelo ''llama3.2'' o ''mistral:7b'' si tenemos más de 8 GB de RAM.
informatica/software/open_webui.1774038277.txt.gz · Última modificación: por tempwin