最新消息:雨落星辰是一个专注网站SEO优化、网站SEO诊断、搜索引擎研究、网络营销推广、网站策划运营及站长类的自媒体原创博客

手把手-Windows上Ollama 与 Chatbox 本地部署及 DeepSeek-R1 模型安装教程

运维笔记admin3浏览0评论

介绍一下如何在本地安装 Ollama、部署 DeepSeek-R1 模型,以及配置 Chatbox 可视化界面,实现便捷对话。以下步骤均适用于 Windows 系统,其他系统用户请参照官网指南进行下载与安装。


1. 安装 Ollama

  1. 访问官网下载
    打开 Ollama 官网,根据你的操作系统选择合适的版本进行下载。

  2. 选择系统版本
    根据电脑系统,点击对应的下载链接。例如,若你使用 Windows 系统,直接点击 Windows 图标进行下载。

  3. 安装软件
    下载完成后,双击运行下载的 .exe 文件,等待安装程序自动完成安装过程。

  4. 验证安装
    安装成功后,按下 Win + R 键打开运行窗口,输入 cmd 进入命令提示符。
    在命令行中输入命令:

    ollama -v
    

    若显示出版本信息,则表示 Ollama 已成功安装。


2. 部署 DeepSeek-R1 模型

  1. 进入模型页面
    在浏览器中打开 Ollama 官网,点击页面左上角的 “models” 按钮进入模型列表。

  2. 选择 DeepSeek-R1 模型
    找到 DeepSeek-R1 模型并点击进入详情页面。

  3. 了解模型规格与显卡要求
    DeepSeek-R1 模型提供多种参数配置:

    • 1.5b、7b、8b、14b、32b、70b、671b

    请根据电脑配置和显卡情况选择合适的版本,推荐的显卡要求如下:

    • DeepSeek-R1-1.5b7b8b14b:NVIDIA RTX 3060 12GB 或更高
    • DeepSeek-R1-32b:NVIDIA RTX 4090 24GB
    • DeepSeek-R1-70b:NVIDIA RTX 4090 24GB ×2
    • DeepSeek-R1-671b:NVIDIA A100 80GB ×16

    此处以 8b 模型为例进行演示。

  4. 启动模型下载
    复制页面上提供的命令,在之前打开的命令行窗口中粘贴并回车执行。

  5. 确认下载与对话
    若命令行中显示 “success”,则表示模型已成功下载,之后你可以与模型进行交互。

  6. 退出与重启会话

    • 若需要退出当前会话,可输入命令 /bye
    • 若想重新进入对话,可先使用 ollama list 查看已下载模型列表。
    • 复制模型的名称后,执行命令:
      ollama run deepseek-r1:8b
      
      便可再次启动模型对话。
  7. 小结
    虽然目前每次使用 Ollama 模型都需要通过命令行操作,但接下来的步骤将介绍如何通过可视化工具简化这一过程。


3. 安装 Chatbox 可视化界面

  1. 下载 Chatbox
    访问 Chatbox 官网 并点击免费下载按钮。

  2. 安装程序
    双击下载的安装文件,按照提示进行安装。可以自定义安装目录,然后点击“安装”。

    安装完成后,即可看到 Chatbox 主界面。

  3. 配置使用模式
    在首次启动时,选择使用自己的 API key 或本地模型。此处选择使用 Chatbox AI。

    随后进入模型设置页面,选择 “Ollama API” 作为模型提供方。

    注意:无需修改 API 域名,直接选择之前下载的 Ollama 模型即可。

  4. 保存设置与使用
    完成配置后,点击保存。此时即可通过 Chatbox 界面与本地部署的模型进行对话。


最后

说了一下从安装 Ollama、部署 DeepSeek-R1 模型到配置 Chatbox 可视化工具,详细说明了本地化部署的全过程。通过这些步骤,你可以在 Windows 系统上轻松体验本地模型对话,享受更直观、便捷的交互体验。

发布评论

评论列表(0)

  1. 暂无评论