informatica:software:ollama
¡Esta es una revisión vieja del documento!
Ollama
Herramienta para ejecutar grandes modelos de lenguaje (LLM) directamente en tu ordenador, sin necesidad de depender de servicios en la nube. Esto significa que puedes tener tu propio asistente virtual o chatbot personal sin enviar tus datos a servidores externos.
Docker
services: chatbot: image: ghcr.io/ivanfioravanti/chatbot-ollama:main ports: - 3000:3000 environment: - DEFAULT_MODEL=llama2 - OLLAMA_HOST=http://ollama:11434 ollama: image: ollama/ollama volumes: - ./app:/root/.ollama - ./models:/ollama/models environment: - OLLAMA_MODELS=/ollama/models restart: unless-stopped ports: - 11434:11434
Tras arrancar los contenedores, descargaremos un modelo para que luego lo use el chatbot, por ejemplo el llama2:
docker exec -it <CONTENEDOR> ollama pull llama2
Ya podremos acceder a http://localhost:3000 y comenzar a interactuar.
Hay que tener como mínimo 8 GB de RAM y es recomendable tener una tarjeta gráfica dedicada para acelerar el cómputo.
Recursos
informatica/software/ollama.1737822613.txt.gz · Última modificación: por tempwin
