informatica:software:ollama
Diferencias
Muestra las diferencias entre dos versiones de la página.
| Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
| informatica:software:ollama [2025/01/25 17:02] – tempwin | informatica:software:ollama [2025/01/25 17:47] (actual) – [Docker] tempwin | ||
|---|---|---|---|
| Línea 4: | Línea 4: | ||
| * [[https:// | * [[https:// | ||
| + | * [[https:// | ||
| + | ===== Docker ===== | ||
| + | <code yaml> | ||
| + | services: | ||
| + | chatbot: | ||
| + | image: ghcr.io/ | ||
| + | ports: | ||
| + | - 3000:3000 | ||
| + | environment: | ||
| + | - DEFAULT_MODEL=llama2 | ||
| + | - OLLAMA_HOST=http:// | ||
| + | ollama: | ||
| + | image: ollama/ | ||
| + | volumes: | ||
| + | - ./ | ||
| + | - ./ | ||
| + | environment: | ||
| + | - OLLAMA_MODELS=/ | ||
| + | restart: unless-stopped | ||
| + | ports: | ||
| + | - 11434:11434 | ||
| + | </ | ||
| + | Tras arrancar los contenedores, | ||
| + | |||
| + | < | ||
| + | docker exec -it < | ||
| + | </ | ||
| + | |||
| + | Ya podremos acceder a '' | ||
| + | |||
| + | <WRAP center round important 60%> | ||
| + | Hay que tener como mínimo 8 GB de RAM y es recomendable tener una tarjeta gráfica dedicada para acelerar el cómputo. | ||
| + | </ | ||
| + | |||
| + | ===== Uso ===== | ||
| + | |||
| + | ==== Descargar modelos ==== | ||
| + | |||
| + | <code bash> | ||
| + | ollama pull < | ||
| + | </ | ||
| + | |||
| + | Podemos elegir cualquier de los de [[https:// | ||
| + | |||
| + | ==== Ejecutar un modelo ==== | ||
| + | |||
| + | <code bash> | ||
| + | ollama run < | ||
| + | </ | ||
| + | ===== Recursos ===== | ||
| + | |||
| + | * [[https:// | ||
informatica/software/ollama.1737820947.txt.gz · Última modificación: por tempwin
