介绍一下如何在本地安装 Ollama、部署 DeepSeek-R1 模型,以及配置 Chatbox 可视化界面,实现便捷对话。以下步骤均适用于 Windows 系统,其他系统用户请参照官网指南进行下载与安装。
1. 安装 Ollama
-
访问官网下载
打开 Ollama 官网,根据你的操作系统选择合适的版本进行下载。
-
选择系统版本
根据电脑系统,点击对应的下载链接。例如,若你使用 Windows 系统,直接点击 Windows 图标进行下载。
-
安装软件
下载完成后,双击运行下载的.exe
文件,等待安装程序自动完成安装过程。
-
验证安装
安装成功后,按下 Win + R 键打开运行窗口,输入cmd
进入命令提示符。
在命令行中输入命令:ollama -v
若显示出版本信息,则表示 Ollama 已成功安装。
2. 部署 DeepSeek-R1 模型
-
进入模型页面
在浏览器中打开 Ollama 官网,点击页面左上角的 “models” 按钮进入模型列表。
-
选择 DeepSeek-R1 模型
找到 DeepSeek-R1 模型并点击进入详情页面。
-
了解模型规格与显卡要求
DeepSeek-R1 模型提供多种参数配置:- 1.5b、7b、8b、14b、32b、70b、671b
请根据电脑配置和显卡情况选择合适的版本,推荐的显卡要求如下:
- DeepSeek-R1-1.5b、7b、8b、14b:NVIDIA RTX 3060 12GB 或更高
- DeepSeek-R1-32b:NVIDIA RTX 4090 24GB
- DeepSeek-R1-70b:NVIDIA RTX 4090 24GB ×2
- DeepSeek-R1-671b:NVIDIA A100 80GB ×16
此处以 8b 模型为例进行演示。
-
启动模型下载
复制页面上提供的命令,在之前打开的命令行窗口中粘贴并回车执行。
-
确认下载与对话
若命令行中显示 “success”,则表示模型已成功下载,之后你可以与模型进行交互。
-
退出与重启会话
- 若需要退出当前会话,可输入命令
/bye
。
- 若想重新进入对话,可先使用
ollama list
查看已下载模型列表。
- 复制模型的名称后,执行命令:
便可再次启动模型对话。ollama run deepseek-r1:8b
- 若需要退出当前会话,可输入命令
-
小结
虽然目前每次使用 Ollama 模型都需要通过命令行操作,但接下来的步骤将介绍如何通过可视化工具简化这一过程。
3. 安装 Chatbox 可视化界面
-
下载 Chatbox
访问 Chatbox 官网 并点击免费下载按钮。
-
安装程序
双击下载的安装文件,按照提示进行安装。可以自定义安装目录,然后点击“安装”。
安装完成后,即可看到 Chatbox 主界面。
-
配置使用模式
在首次启动时,选择使用自己的 API key 或本地模型。此处选择使用 Chatbox AI。
随后进入模型设置页面,选择 “Ollama API” 作为模型提供方。
注意:无需修改 API 域名,直接选择之前下载的 Ollama 模型即可。
-
保存设置与使用
完成配置后,点击保存。此时即可通过 Chatbox 界面与本地部署的模型进行对话。
最后
说了一下从安装 Ollama、部署 DeepSeek-R1 模型到配置 Chatbox 可视化工具,详细说明了本地化部署的全过程。通过这些步骤,你可以在 Windows 系统上轻松体验本地模型对话,享受更直观、便捷的交互体验。