HelloWorld 发表于 2025-1-29 01:52:43

Mac 电脑本机运行 DeepSeek-R1 模型及其网页版交互方式

本帖最后由 HelloWorld 于 2025-1-29 22:54 编辑

1. 用 brew 安装 ollama
2. 执行 brew services start ollama 开启 ollama 进程
3. 运行 ollama run deepseek-r1:14b ,如果还没下载模型,它会自动下载然后运行,模型规模根据自己电脑配置去选:https://ollama.com/library/deepseek-r1:14b
4. 克隆 https://github.com/jakobhoeg/nextjs-ollama-llm-ui,如果你用的是 ollama 默认端口 localhost:11434,则无需配置 evn,直接运行即可。亲测 node v18 有 bug,v22 运行正常
5. 如果不想用了,执行 brew services stop ollama 防止占用太多内存

使用发现,因为电脑配置低,AI 回答的思考速度很慢。还是继续用官方的网页版吧

其它相关代码:ollama list
ollama rm deepseek-r1:70b

不想捣鼓命令行的,也可以直接用这个客户端:https://lmstudio.ai/download

MrRaven 发表于 2025-1-29 05:45:13

感觉自己的电脑不行。。

Frost_Ajax 发表于 2025-1-29 12:47:48

我用的是deepseek-r1:8b 的,前端是App store上面找的软件叫Enchanted. 目前看智商不太够。还是用官方的API算了。

HelloWorld 发表于 2025-1-29 12:52:22

Frost_Ajax 发表于 2025-1-29 12:47
我用的是deepseek-r1:8b 的,前端是App store上面找的软件叫Enchanted. 目前看智商不太够。还是用官方的API ...

8b 是 llama 架构,7b 是 qwen,不知道区别大不大

Frost_Ajax 发表于 2025-1-29 13:09:11

HelloWorld 发表于 2025-1-28 23:52
8b 是 llama 架构,7b 是 qwen,不知道区别大不大

是不是有些敏感话题qwen就不回答?

HelloWorld 发表于 2025-1-29 13:14:48

Frost_Ajax 发表于 2025-1-29 13:09
是不是有些敏感话题qwen就不回答?

是这样子?

MrRaven 发表于 2025-2-1 08:03:07

主要也是怀疑一些话题,会不会出问题

MrRaven 发表于 2025-2-14 02:20:32

发现最后还是用api

shuzifans 发表于 4 天前

现在api不能充值啊
页: [1]
查看完整版本: Mac 电脑本机运行 DeepSeek-R1 模型及其网页版交互方式