由于Ollama的exe安装软件双击安装的时候默认是在C盘,以及后续的模型数据下载也在C盘,导致会占用C盘空间,所以这里单独写了一个自定义安装Ollama安装目录的教程。
  Ollama官网地址:https://ollama.com/

  • 手动创建Ollama安装目录  

  首先在你想安装的路径下创建好一个新文件夹,并把Ollama的安装包放在里面。比如我的是:D:\ollama
图1

打开cmd或者terminal并切换到D:\ollama目录
图2

  • **输入命令符安装   **

  然后在CMD窗口输入:.\OllamaSetup.exe /DIR=D:\ollama
  **语法:软件名称 /DIR=这里放你上面创建好的Ollama指定目录**

然后Ollama就会进入安装,点击Install后,可以看到Ollama的安装路径就变成了我们指定的目录了,这样大模型数据包也会默认下载在指定目录中。
图3

图4

软件安装完成了,但是如果要下载模型,它还是安装到C盘!还需要做如下操作。

  • 增加环境变量

  然后鼠标右键我的电脑-->属性-->高级系统设置-->环境变量

图5

图6

新建一个环境变量
  OLLAMA_MODELS :D:\ollama\models
如果目录不存在,还要创建目录

图7

重启ollama,打开CMD输入ollama list,查看大模型资源包是否能正常显示,显示正常则迁移完成,也可以直接和大模型进行提问,能回复说明也正常。

软件和模型安装完成,就可以直接在cmd中对话了,但是对话的界面不太友好,怎么办呢?

打开下面的链接:https://github.com/open-webui/open-webui

下载或者克隆下来,此项目是 open-webui 的简化版,注意需:node >= 16

运行之后,你可以对连接信息进行设置,默认是连接本机的 http://localhost:11434/api,
本机部署,不用更改。然后界面选择启动的模型,就可以对话了。

完成。