1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 网络工具 > 正文

网络工具

ollama本地部署更改默认C盘,Windows配置环境变量方法

1987web2025-04-12网络工具10
ollama是一个大语言模型(LLM——LargeLanguageModel),本地电脑安装网上也要很多教程,看上去非常简单,一直下一步,然后直接就可以使用了。但是我在实操的时候并不是这

ollama是一个大语言模型(LLM——Large Language Model),本地电脑安装网上也要很多教程,看上去非常简单,一直下一步,然后直接就可以使用了。但是我在实操的时候并不是这样,安装完根本就用不了,这里分享一下我得经验,喜欢ai文章或想要了解更多AI知识,欢迎关注我。

一、下载ollama

可以搜索ollama关键词即可找到官网ollama,然后在首页点download进入下载页面,下图所示。

ollama下载

然后根据电脑系统选择下载哪个版本,我使用的是Windows系统,所以选择Windows版本,对于其他系统,以后再分享,今天主要以Windows系统安装设置为主要内容。点击 download for Windows 下载即可。

ollama Windows版下载

二、安装ollama

找到我们前面下载的ollama安装文件,双击OllamaSetup.exe运行,点install进行安装,下图所示:

ollama安装

等待安装完成之后,安装界面会自动消失,然后ollama会自动启动。

​到此安装就结束了。一般情况下是可以继续使用了,但是对于某些电脑,比如我的是Win11,还是不能正常使用,下面来进行一些配置。​

三、ollama配置环境变量

Win10或Win11可以直接搜索环境变量,下图搜索,打开编辑系统环境变量设置:

在高级下面点环境变量,下图所示:

在弹出来的对话框中点下图所示的新建:

配置ollama的模型存储路径,默认是C盘,这里我们更改ollama的模型存储为D盘,先打开电脑的D盘创建一个名为ollama的文件夹。然后接上面弹出来的对话框中输入变量名和变量值:

变量名:OLLAMA_MODELS

​变量值:D:\ollama

ollama更改模型存储搭配D盘

填写完成之后点确定。这样默认将下载的模型存储到C盘的问题就解决了,需要注意的是该设置需要重启电脑才能生效(我这里先不重启,设置后面的再重启电脑)。

我们继续添加添加环境变量,更改服务监听地址和端口,接上面,我们继续新建环境变量,变量名和变量值按以下设置:

变量名:OLLAMA_HOST

变量值:127.0.0.1

监听地址,默认为127.0.0.1(仅限本机访问)。如需远程访问,可设置为0.0.0.0,一般本机访问即可。

继续新建环境变量,修改默认端口号,ollama默认使用11434端口,变量名为OLLAMA_PORT,变量值为可以自定义一个5为数字,我这里使用11438:

这样就可以解决端口号被占用有冲突的问题,要是这个端口号还不行,那么再更换一个。

继续再新建变量,为http开放请求,变量名为OLLAMA_ORIGINS,变量值填写*(星号)即可,下图所示:

下图所示,可以看到,我们连续为ollama添加了4条变量和与之对应的值:

ollama环境变量配置

然后点确定,完成配置即可,其他的ollama环境变量如下表格所示,可以根据实际情况添加。

注意每次更改环境变量之后,需要重启电脑,配置才会生效,我们这里先不重启,再配置一下防火墙后再重启。

变量名

变量值 配置解释

OLLAMA_MODELS

表示模型文件的存放目录,默认目录为当前用户目录即 C:\Users%username%.ollama\modelsWindows 系统 建议不要放在C盘,可放在其他盘(如 E:\ollama\models)

OLLAMA_HOST

表示ollama 服务监听的网络地址,默认为127.0.0.1如果想要允许其他电脑访问 Ollama(如局域网中的其他电脑),建议设置成 0.0.0.0

OLLAMA_PORT

表示ollama 服务监听的默认端口,默认为11434如果端口有冲突,可以修改设置成其他端口(如8080等)

OLLAMA_ORIGINS

表示HTTP 客户端的请求来源,使用半角逗号分隔列表如果本地使用不受限制,可以设置成星号 *

OLLAMA_KEEP_ALIVE

表示大模型加载到内存中后的存活时间,默认为5m即 5 分钟(如纯数字300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活)建议设置成 24h ,即模型在内存中保持 24 小时,提高访问速度

OLLAMA_NUM_PARALLEL

表示请求处理的并发数量,默认为1 (即单并发串行处理请求)建议按照实际需求进行调整

OLLAMA_MAX_QUEUE

表示请求队列长度,默认值为512建议按照实际需求进行调整,超过队列长度的请求会被抛弃

OLLAMA_DEBUG

表示输出 Debug 日志,应用研发阶段可以设置成1 (即输出详细日志信息,便于排查问题)

OLLAMA_MAX_LOADED_MODELS

表示最多同时加载到内存中模型的数量,默认为1 (即只能有 1 个模型在内存中)

四、防火墙放行新配置的ollama端口

在电脑左下角搜索防火墙,下图所示(win10或Win11都有),点Windows Defender 防火墙并打开:

然后点下图所示的高级设置:

弹出的窗口如下图所示,点左上角入站规则,再点右上角新建规则:

弹出的窗口选择端口后,点下一页:

选择TCP,再选择特定本地端口,并输入前面我们配置环境变量时设置的端口号,如11438,再点下一页:

选择允许链接,然后点 下一页:

然后弹出来的对话框中把域、专用、共用前面的对勾都选上,点下一页继续,下图所示:

然后在对话框这里的名称和描述这里,输入一下备注,比如名称为Allow Ollama Port 11438,描述为ollama放行端口号11438,这里的名称和描述随便填 什么都可以的。填写好之后点完成即可。

到此,关于ollama的所有配置就全部完成了,由于前面没有重启电脑,所以先重启电脑使配置的环境变量生效。

重启电脑之后,默认ollama是跟随系统自动启动的,在电脑的右下角可以看到ollama羊驼小图标,如下图所示,如果没有启动,可以在开始菜单中启动ollama。

确认ollama已经启动,我们打开命令提示符,使用win键+R键输入 cmd打开命令提示符,下图所示,输入ollama然后回车,如果有下图所示的返回信息,就表示ollama没有问题了。

但是到此,并没有完!我们继续打开浏览,在浏览器的地址栏输入localhost:11438或者127.0.0.1:11438后回车,看是否能访问,我这里显示不能!提示页面拒绝访问,解决方法是:修改环境变量配置。

依然打开环境变量设置,修改我们之前添加的变量名为OLLAMA_HOST的值,下图所示,找到OLLAMA_HOST这一条,双击打开后将原来的值127.0.0.1修改为0.0.0.0:11438后保存即可,注意这里的0.0.0.0是任意IP地址的意思,11438是端口号,要和我们放行的端口号保持一致,IP和端口号之间使用英文状态下的冒号隔开。

设置好之后点确定。然后电脑右下角在ollama图标上面点鼠标右键点quit ollama退出,再从开始菜单中重新打开ollama(也就是重启ollama),然后打开浏览器,在地址栏输入localhost:11438或者127.0.0.1:11438看是否可以正常访问,如下2张截图所示,我的终于可以成功访问了。

localhost访问

127本地IP访问

到此,ollama的全部安装配置就完成了,如还有其他问题可以留言评论。

我们在网上到底很多教程,都是直接下载安装,然后就很顺利的使用,缺少环境变量配置,更改默认C盘存储等,我这里全部整理分享出来。安装是否成功的标志就是①使用命令提示符输入ollama回车之后有关于ollama的信息返回,②是在浏览器地址栏使用 IP+端口 可以成功访问。欢迎关注我,持续分享更多ai相关技术。