本地部署DeepSeek R1模型

收录合集

本地Mac OS 部署DeepSeek R1模型,可以无限制使用,可以解决服务器响应失败的问题。

 

1.安装环境准备

PC: macos intel 芯片型号版本

内存:8-16G

disk磁盘:10-20g(如果多个模型需要更多磁盘)

2.安装ollama模型运行引擎

进入ollama的官网安装模型运行引擎 https://ollama.com/download

选择对应的版本安装

或者,直接使用命令行安装

curl -fsSL https://ollama.com/install.sh | sh

 

本地部署DeepSeek R1模型, TNEXT

ollama版本检测,在终端输入ollama --version, 有回显版本号则表示安装成功

 

3.DeepSeek模型安装和卸载

3.1 安装deepseek模型

1.选择合适的模型和版本

在Ollama网页上这块可以来选择模型:

本地部署DeepSeek R1模型, TNEXT

根据自己的电脑配置选择正确的模型版本,以mac机型为例的硬件要求如下

本地部署DeepSeek R1模型, TNEXT

通用的硬件配置如下

本地部署DeepSeek R1模型, TNEXT

这里以下载按住安装1.5b模型为例

ollama run deepseek-r1:1.5b

 

本地部署DeepSeek R1模型, TNEXT

此时安装完成,即可以提问了。

我们随便提个问题: 请你介绍下雷军....这回答简直是稀烂的回答...

本地部署DeepSeek R1模型, TNEXT

3.2 卸载deepseek模型

如果用的ollama部署的话,可以使用下面这个指令来删除已安装的7b模型。

ollama rm deepseek-r1:7b

如果是查看的话,可以用下面的指令。

ollama list

 

4.安装ChatbotAI可视化UI界面

在命令行进行操作的界面很多人不习惯,需要一个UI界面进行套壳。可以使用chatbox来实现。https://chatboxai.app

1.下载软件

本地部署DeepSeek R1模型, TNEXT

2.选择自己的api或本地模型

本地部署DeepSeek R1模型, TNEXT

3.选择ollama API模型引擎

本地部署DeepSeek R1模型, TNEXT

4.系统自动识别到安装的deepseek模型,这里我们安装了2个

本地部署DeepSeek R1模型, TNEXT

5.开启对话模式。结束

本地部署DeepSeek R1模型, TNEXT

 

此时,所有部署全部完成。你会发现一个问题,本地部署的deepseek-r1模型回答效果如同狗屎,对吧。后面再开案说明...

 

 

 

双ISP家庭宽带美国原生IP超大带宽不限流量解锁ChatGPT、流媒体、TikTok, Lisahost新品4837线路。国际贸易、跨境出海企业级IPLC/CN2 GIA国际互联网专线 JustMySocksBandwagonHostIPLC/CN2/GIA线路库存查询

本文由作者 Leeco 发布在 TNEXT , 转载请联系客服授权处理,获得授权后请保留文章的完整性并附上原文链接: https://tnext.org/13883.html

2
无限制访问资源 | 下载VIP专享资源 | 享受VIP会员专区优惠折扣 | 会员独享专栏| 去除广告| 会员订阅更多详情说明 订阅会员
      error: Content is protected !
      TNEXT
      Logo