====== Ollama ====== Herramienta para ejecutar grandes modelos de lenguaje (LLM) directamente en tu ordenador, sin necesidad de depender de servicios en la nube. Esto significa que puedes tener tu propio asistente virtual o chatbot personal sin enviar tus datos a servidores externos. * [[https://ollama.com/|Sitio web]] * [[https://github.com/ollama/ollama|Repositorio de código]] ===== Docker ===== services: chatbot: image: ghcr.io/ivanfioravanti/chatbot-ollama:main ports: - 3000:3000 environment: - DEFAULT_MODEL=llama2 - OLLAMA_HOST=http://ollama:11434 ollama: image: ollama/ollama volumes: - ./app:/root/.ollama - ./models:/ollama/models environment: - OLLAMA_MODELS=/ollama/models restart: unless-stopped ports: - 11434:11434 Tras arrancar los contenedores, descargaremos un modelo para que luego lo use el chatbot, por ejemplo el ''llama2'': docker exec -it ollama pull llama2 Ya podremos acceder a ''http://localhost:3000'' y comenzar a interactuar. Hay que tener como mínimo 8 GB de RAM y es recomendable tener una tarjeta gráfica dedicada para acelerar el cómputo. ===== Uso ===== ==== Descargar modelos ==== ollama pull Podemos elegir cualquier de los de [[https://ollama.com/library|su biblioteca]]. ==== Ejecutar un modelo ==== ollama run ===== Recursos ===== * [[https://ollama.com/library|Biblioteca de modelos para Ollama]]