====== Open WebUI ====== Open WebUI es una interfaz web de código abierto diseñada para interactuar con modelos de lenguaje grandes ([[..:inteligencia_artificial:llm|LLMs]]). Open WebUI es como un "ChatGPT autoalojado" que puedes conectar a distintos modelos de lenguaje, ya sean locales o en la nube. * [[https://openwebui.com/|Sitio web]] * [[https://docs.openwebui.com/|Documentación]] ===== Integración de Ollama ===== [[ollama|Ollama]] debe estar funcionando y escuchando en el puerto 11434 a todas las interfaces de la red. Si no es así, y usamos SystemD tenemos que editar el servicio: sudo systemctl edit ollama Y añadimos: [Service] Environment="OLLAMA_HOST=0.0.0.0:11434" Reiniciamos: sudo systemctl daemon-reexec sudo systemctl restart ollama Verificamos: ss -tulnp | grep 11434 Si aparece algo como: 0.0.0.0:11434 También sería válido: *:11434 Significa que Ollama ya está escuchando en todas las interfaces. Ejecutaremos Open WebUI como contenedor Docker: services: app: image: ghcr.io/open-webui/open-webui ports: - 3000:8080 environment: - OLLAMA_BASE_URL=http://172.17.0.1:11434 - WEBUI_AUTH=False En el ejemplo anterior, ''172.17.0.1'' es la IP de del host. Podemos averiguar la nuestra con: ip addr show docker0 Prueba de conexión con Ollama: docker run --rm curlimages/curl curl http://172.17.0.1:11434 Si se establece la conexión, veremos el mensaje: Ollama is running ===== Pruebas con modelos LLM ===== Para pruebas no se necesitan modelos grandes. Prioriza: * Rapidez * Bajo consumo Los modelos de 3B–7B parámetros son ideales para esto. Por ejemplo, el modelo ''llama3.2'' o ''mistral:7b'' si tenemos más de 8 GB de RAM.