ollama安装配置
song

ollama官方主页
ollama下载页面
ollama官方github仓库

Ollama安装路径:

  • C:\Users\<用户>\AppData\Local\Programs\Ollama 不可修改

    ollama环境变量
参数 描述
OLLAMA_MODELS 表示模型文件的存放目录,默认目录为当前用户目录即 C:\Users\<用户名>\.ollama\models
Ollama 的安装路径(C:\Users\<用户>\AppData\Local\Programs\Ollama)不可修改‌
OLLAMA_HOST 表示ollama 服务监听的网络地址,默认为127.0.0.1
如果想要允许其他电脑访问 Ollama(如局域网中的其他电脑),建议设置成 0.0.0.0
OLLAMA_PORT 表示ollama 服务监听的默认端口,默认为11434
OLLAMA_ORIGINS 控制跨域请求来源(如设为 * 允许所有域名)‌
OLLAMA_KEEP_ALIVE 表示大模型加载到内存中后的存活时间,默认为5m即 5 分钟
(如纯数字300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活)
OLLAMA_NUM_PARALLEL 表示请求处理的并发数量,默认为1 (即单并发串行处理请求)
OLLAMA_MAX_QUEUE 表示请求队列长度,默认值为512
OLLAMA_DEBUG 表示输出 Debug 日志,应用研发阶段可以设置成1 (即输出详细日志信息,便于排查问题)
OLLAMA_MAX_LOADED_MODELS 表示最多同时加载到内存中模型的数量,默认为1 (即只能有 1 个模型在内存中)
OLLAMA_GPU_LAYER 强制启用 GPU 加速(需配合 CUDA 或 DirectML 环境)‌
由 Hexo 驱动 & 主题 Keep