informatica:software:ollama
Diferencias
Muestra las diferencias entre dos versiones de la página.
| Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
| informatica:software:ollama [2025/01/25 17:02] – tempwin | informatica:software:ollama [2026/03/20 21:44] (actual) – [Ejecutar un modelo] tempwin | ||
|---|---|---|---|
| Línea 4: | Línea 4: | ||
| * [[https:// | * [[https:// | ||
| + | * [[https:// | ||
| + | ===== Ollama vs ChatGPT ===== | ||
| + | La diferencia más importante es esta: | ||
| + | |||
| + | * ChatGPT / Gemini → IA en la nube | ||
| + | * Ollama → IA en tu propio ordenador | ||
| + | |||
| + | Ventajas de Ollama: | ||
| + | |||
| + | * Privacidad total (datos no salen de tu máquina) | ||
| + | * Gratis (una vez tienes el hardware) | ||
| + | * Personalizable (puedes cambiar modelos fácilmente) | ||
| + | |||
| + | Desventajas: | ||
| + | |||
| + | * Puede ser más lento | ||
| + | * Necesitas buen hardware (RAM, GPU) | ||
| + | * Más técnico | ||
| + | |||
| + | ^ Concepto | ||
| + | | LLM | Motor | | ||
| + | | ChatGPT | ||
| + | | Ollama | ||
| + | |||
| + | ===== Docker ===== | ||
| + | |||
| + | <code yaml> | ||
| + | services: | ||
| + | chatbot: | ||
| + | image: ghcr.io/ | ||
| + | ports: | ||
| + | - 3000:3000 | ||
| + | environment: | ||
| + | - DEFAULT_MODEL=llama2 | ||
| + | - OLLAMA_HOST=http:// | ||
| + | ollama: | ||
| + | image: ollama/ | ||
| + | volumes: | ||
| + | - ./ | ||
| + | - ./ | ||
| + | environment: | ||
| + | - OLLAMA_MODELS=/ | ||
| + | restart: unless-stopped | ||
| + | ports: | ||
| + | - 11434:11434 | ||
| + | </ | ||
| + | |||
| + | Tras arrancar los contenedores, | ||
| + | |||
| + | < | ||
| + | docker exec -it < | ||
| + | </ | ||
| + | |||
| + | Ya podremos acceder a '' | ||
| + | |||
| + | <WRAP center round important 60%> | ||
| + | Hay que tener como mínimo 8 GB de RAM y es recomendable tener una tarjeta gráfica dedicada para acelerar el cómputo. | ||
| + | </ | ||
| + | |||
| + | ===== Uso ===== | ||
| + | |||
| + | ==== Descargar modelos ==== | ||
| + | |||
| + | <code bash> | ||
| + | ollama pull < | ||
| + | </ | ||
| + | |||
| + | Podemos elegir cualquier de los de [[https:// | ||
| + | |||
| + | ==== Ejecutar un modelo ==== | ||
| + | |||
| + | <code bash> | ||
| + | ollama run < | ||
| + | </ | ||
| + | |||
| + | ==== Listar los modelos descargados ==== | ||
| + | |||
| + | <code bash> | ||
| + | ollama list | ||
| + | </ | ||
| + | ===== Integración con Open WebUI ===== | ||
| + | |||
| + | [[open_webui|Open WebUI]] | ||
| + | ===== Recursos ===== | ||
| + | |||
| + | * [[https:// | ||
informatica/software/ollama.1737820947.txt.gz · Última modificación: por tempwin
