ollama安装配置
ollama官方主页
ollama下载页面
ollama官方github仓库
Ollama安装路径:
C:\Users\<用户>\AppData\Local\Programs\Ollama不可修改
ollama环境变量
| 参数 | 描述 | |
|---|---|---|
| OLLAMA_MODELS | 表示模型文件的存放目录,默认目录为当前用户目录即 C:\Users\<用户名>\.ollama\modelsOllama 的安装路径( C:\Users\<用户>\AppData\Local\Programs\Ollama)不可修改 |
|
| OLLAMA_HOST | 表示ollama 服务监听的网络地址,默认为127.0.0.1 如果想要允许其他电脑访问 Ollama(如局域网中的其他电脑),建议设置成 0.0.0.0 |
|
| OLLAMA_PORT | 表示ollama 服务监听的默认端口,默认为11434 | |
| OLLAMA_ORIGINS | 控制跨域请求来源(如设为 * 允许所有域名) |
|
| OLLAMA_KEEP_ALIVE | 表示大模型加载到内存中后的存活时间,默认为5m即 5 分钟 (如纯数字300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活) |
|
| OLLAMA_NUM_PARALLEL | 表示请求处理的并发数量,默认为1 (即单并发串行处理请求) | |
| OLLAMA_MAX_QUEUE | 表示请求队列长度,默认值为512 | |
| OLLAMA_DEBUG | 表示输出 Debug 日志,应用研发阶段可以设置成1 (即输出详细日志信息,便于排查问题) | |
| OLLAMA_MAX_LOADED_MODELS | 表示最多同时加载到内存中模型的数量,默认为1 (即只能有 1 个模型在内存中) | |
| OLLAMA_GPU_LAYER | 强制启用 GPU 加速(需配合 CUDA 或 DirectML 环境) | |