1 Downlaod

访问:ollama.com 下载OllamaSetup.exe

2 安装

默认安装在C盘,指定安装路径:

1
OllamaSetup.exe /DIR="D:\Program Files\Ollama"

3 下载模型

指定代理:

1
2
set http_proxy=http://127.0.0.1:1080
set https_proxy=http://127.0.0.1:1080

指定模型下载位置:

1
2
OLLAMA_MODELS=E:\AI\ollama\models
# 设置环境变量,默认下载路径由~/.ollama/models更改为自定义路径,不更改的话可能会把C盘填满

拉取镜像并运行

1
2
ollama run deepseek-r1:14b
ollama serve

4 参考:

4.1 网址参考

客户端

模型选择参考https://ollama.com/library/deepseek-r1

4.2 安装步骤参考

以下内容由AI生成

4.2.1 步骤一:安装 Ollama

  1. 下载安装包:访问 Ollama 的官方下载页面,下载适配 Windows 系统的安装包。
  2. 完成安装:双击下载好的安装包,依照安装向导的指引完成 Ollama 的安装操作。

4.2.2 步骤二:配置环境变量

4.2.2.1 系统属性设置法

  • 右键点击 “此电脑”,选择 “属性”。

  • 点击左侧 “高级系统设置”,在弹出的 “系统属性” 窗口里切换到 “高级” 选项卡,点击 “环境变量”。

  • 在 “系统变量” 区域:

    • 点击 “新建”,变量名填 OLLAMA_MODELS,变量值填 D:\AI,点击 “确定”。这会让 Ollama 将模型存于 D:\AI 目录。
    • 再次点击 “新建”,变量名填 OLLAMA_HOST,变量值填 0.0.0.0,点击 “确定”。此设置使 Ollama 服务监听所有网络接口。
    • 又一次点击 “新建”,变量名填 OLLAMA_ORIGINS,变量值填 *,点击 “确定”。这允许来自任何源的请求访问 Ollama 服务。
  • 依次点击 “确定” 关闭窗口,让环境变量设置生效。

4.2.2.2 PowerShell 命令设置法

以管理员身份打开 PowerShell,输入以下命令:

powershell

1
2
3
[Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\AI", "Machine")
[Environment]::SetEnvironmentVariable("OLLAMA_HOST", "0.0.0.0", "Machine")
[Environment]::SetEnvironmentVariable("OLLAMA_ORIGINS", "*", "Machine")

运行后,需重启电脑让设置生效。

4.2.3 步骤三:启动 Ollama 服务

配置好环境变量后,从开始菜单启动 Ollama,它会按你设定的环境变量启动服务,将模型存于 D:\AI 目录,监听所有网络接口并允许跨域访问。

4.2.4 步骤四:下载 DeepSeek 模型

  1. 打开命令提示符或 PowerShell。
  2. 输入命令下载 DeepSeek 模型,如 deepseek-coder:7b

plaintext

1
ollama pull deepseek-coder:7b

下载时长取决于网络速度。

4.2.5 步骤五:安装 Chatbox

  1. 下载 Chatbox:访问 Chatbox 的官方网站,下载 Windows 版本的安装包。
  2. 安装程序:双击下载好的安装包,按照安装向导完成 Chatbox 的安装。

4.2.6 步骤六:在 Chatbox 中配置 DeepSeek 模型

  1. 启动 Chatbox。

  2. 找到 Chatbox 的设置选项,通常可以在界面的侧边栏或者菜单中找到。

  3. 在设置中,查找 “模型” 或 “API” 相关的配置区域。

  4. 选择 “自定义模型” 或 “添加模型” 的选项。

  5. 进行如下配置:

    • API 地址:由于 OLLAMA_HOST 设置为 0.0.0.0,默认情况下 Ollama 的 API 地址是 http://localhost:11434,将其填入 Chatbox 的 API 地址输入框。
    • 模型名称:输入你下载的 DeepSeek 模型名称,例如 deepseek-coder:7b
  6. 完成配置后,保存设置。

4.2.7 步骤七:使用 Chatbox 与 DeepSeek 模型交互

配置完成后,在 Chatbox 的输入框中输入问题或指令,按下回车键,Chatbox 就会将请求发送给 Ollama 服务中的 DeepSeek 模型,并显示模型生成的回答。

4.2.8 注意事项

  • 要保证 D:\AI 目录存在且有足够的磁盘空间来存放模型文件。
  • 若在配置环境变量、下载模型或使用 Chatbox 时遇到问题,可检查环境变量设置是否正确,查看 Ollama 的日志文件获取更多信息,或者在相关社区论坛寻求帮助。