Herramientas de usuario

Herramientas del sitio


informatica:software:open_webui

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anteriorRevisión previa
Próxima revisión
Revisión previa
informatica:software:open_webui [2026/03/20 21:27] – [Integración de Ollama] tempwininformatica:software:open_webui [2026/03/20 21:43] (actual) tempwin
Línea 10: Línea 10:
 ===== Integración de Ollama ===== ===== Integración de Ollama =====
  
-Ollama debe estar funcionando y escuchando en el puerto 11434 a todas las interfaces de la red. Si no es así, y usamos SystemD tenemos que editar el servicio:+[[ollama|Ollama]] debe estar funcionando y escuchando en el puerto 11434 a todas las interfaces de la red. Si no es así, y usamos SystemD tenemos que editar el servicio:
  
 <code> <code>
Línea 74: Línea 74:
 docker run --rm curlimages/curl curl http://172.17.0.1:11434 docker run --rm curlimages/curl curl http://172.17.0.1:11434
 </code> </code>
 +
 +Si se establece la conexión, veremos el mensaje:
 +
 +<code>
 +Ollama is running
 +</code>
 +
 +===== Pruebas con modelos LLM =====
 +
 +Para pruebas no se necesitan modelos grandes. Prioriza:
 +
 +  * Rapidez
 +  * Bajo consumo
 +
 +Los modelos de 3B–7B parámetros son ideales para esto.
 +
 +Por ejemplo, el modelo ''llama3.2'' o ''mistral:7b'' si tenemos más de 8 GB de RAM.
informatica/software/open_webui.1774038471.txt.gz · Última modificación: por tempwin