informatica:software:ollama
Tabla de Contenidos
Ollama
Herramienta para ejecutar grandes modelos de lenguaje (LLM) directamente en tu ordenador, sin necesidad de depender de servicios en la nube. Esto significa que puedes tener tu propio asistente virtual o chatbot personal sin enviar tus datos a servidores externos.
Ollama vs ChatGPT
La diferencia más importante es esta:
- ChatGPT / Gemini → IA en la nube
- Ollama → IA en tu propio ordenador
Ventajas de Ollama:
- Privacidad total (datos no salen de tu máquina)
- Gratis (una vez tienes el hardware)
- Personalizable (puedes cambiar modelos fácilmente)
Desventajas:
- Puede ser más lento
- Necesitas buen hardware (RAM, GPU)
- Más técnico
| Concepto | Analogía |
|---|---|
| LLM | Motor |
| ChatGPT | Coche terminado |
| Ollama | Taller + piezas para montar tu coche |
Docker
services: chatbot: image: ghcr.io/ivanfioravanti/chatbot-ollama:main ports: - 3000:3000 environment: - DEFAULT_MODEL=llama2 - OLLAMA_HOST=http://ollama:11434 ollama: image: ollama/ollama volumes: - ./app:/root/.ollama - ./models:/ollama/models environment: - OLLAMA_MODELS=/ollama/models restart: unless-stopped ports: - 11434:11434
Tras arrancar los contenedores, descargaremos un modelo para que luego lo use el chatbot, por ejemplo el llama2:
docker exec -it <CONTENEDOR> ollama pull llama2
Ya podremos acceder a http://localhost:3000 y comenzar a interactuar.
Hay que tener como mínimo 8 GB de RAM y es recomendable tener una tarjeta gráfica dedicada para acelerar el cómputo.
Uso
Descargar modelos
ollama pull <NOMBRE_DEL_MODELO>
Podemos elegir cualquier de los de su biblioteca.
Ejecutar un modelo
ollama run <NOMBRE_DEL_MODELO>
Listar los modelos descargados
ollama list
Integración con Open WebUI
Recursos
informatica/software/ollama.txt · Última modificación: por tempwin
