====== Ollama ======
Herramienta para ejecutar grandes modelos de lenguaje (LLM) directamente en tu ordenador, sin necesidad de depender de servicios en la nube. Esto significa que puedes tener tu propio asistente virtual o chatbot personal sin enviar tus datos a servidores externos.
* [[https://ollama.com/|Sitio web]]
* [[https://github.com/ollama/ollama|Repositorio de código]]
===== Ollama vs ChatGPT =====
La diferencia más importante es esta:
* ChatGPT / Gemini → IA en la nube
* Ollama → IA en tu propio ordenador
Ventajas de Ollama:
* Privacidad total (datos no salen de tu máquina)
* Gratis (una vez tienes el hardware)
* Personalizable (puedes cambiar modelos fácilmente)
Desventajas:
* Puede ser más lento
* Necesitas buen hardware (RAM, GPU)
* Más técnico
^ Concepto ^ Analogía ^
| LLM | Motor |
| ChatGPT | Coche terminado |
| Ollama | Taller + piezas para montar tu coche |
===== Docker =====
services:
chatbot:
image: ghcr.io/ivanfioravanti/chatbot-ollama:main
ports:
- 3000:3000
environment:
- DEFAULT_MODEL=llama2
- OLLAMA_HOST=http://ollama:11434
ollama:
image: ollama/ollama
volumes:
- ./app:/root/.ollama
- ./models:/ollama/models
environment:
- OLLAMA_MODELS=/ollama/models
restart: unless-stopped
ports:
- 11434:11434
Tras arrancar los contenedores, descargaremos un modelo para que luego lo use el chatbot, por ejemplo el ''llama2'':
docker exec -it ollama pull llama2
Ya podremos acceder a ''http://localhost:3000'' y comenzar a interactuar.
Hay que tener como mínimo 8 GB de RAM y es recomendable tener una tarjeta gráfica dedicada para acelerar el cómputo.
===== Uso =====
==== Descargar modelos ====
ollama pull
Podemos elegir cualquier de los de [[https://ollama.com/library|su biblioteca]].
==== Ejecutar un modelo ====
ollama run
==== Listar los modelos descargados ====
ollama list
===== Integración con Open WebUI =====
[[open_webui|Open WebUI]]
===== Recursos =====
* [[https://ollama.com/library|Biblioteca de modelos para Ollama]]