本地Mac OS 部署DeepSeek R1模型,可以无限制使用,可以解决服务器响应失败的问题。
1.安装环境准备
PC: macos intel 芯片型号版本
内存:8-16G
disk磁盘:10-20g(如果多个模型需要更多磁盘)
2.安装ollama模型运行引擎
进入ollama的官网安装模型运行引擎 https://ollama.com/download
选择对应的版本安装
或者,直接使用命令行安装
curl -fsSL https://ollama.com/install.sh | sh
ollama版本检测,在终端输入ollama --version, 有回显版本号则表示安装成功
3.DeepSeek模型安装和卸载
3.1 安装deepseek模型
1.选择合适的模型和版本
在Ollama网页上这块可以来选择模型:
根据自己的电脑配置选择正确的模型版本,以mac机型为例的硬件要求如下
通用的硬件配置如下
这里以下载按住安装1.5b模型为例
ollama run deepseek-r1:1.5b
此时安装完成,即可以提问了。
我们随便提个问题: 请你介绍下雷军....这回答简直是稀烂的回答...
3.2 卸载deepseek模型
如果用的ollama部署的话,可以使用下面这个指令来删除已安装的7b模型。
ollama rm deepseek-r1:7b
如果是查看的话,可以用下面的指令。
ollama list
4.安装ChatbotAI可视化UI界面
在命令行进行操作的界面很多人不习惯,需要一个UI界面进行套壳。可以使用chatbox来实现。https://chatboxai.app
1.下载软件
2.选择自己的api或本地模型
3.选择ollama API模型引擎
4.系统自动识别到安装的deepseek模型,这里我们安装了2个
5.开启对话模式。结束
此时,所有部署全部完成。你会发现一个问题,本地部署的deepseek-r1模型回答效果如同狗屎,对吧。后面再开案说明...
本文由作者 Leeco 发布在 TNEXT , 转载请联系客服授权处理,获得授权后请保留文章的完整性并附上原文链接: https://tnext.org/13883.html