全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

IP归属甄别会员请立即修改密码
楼主: netAlchemist
打印 上一主题 下一主题

现在自己部署deepseek是不是配置要求比LLAMA低了很多

[复制链接]
11#
发表于 2025-1-27 21:24:12 | 只看该作者
吃显存啊
大模型得24G显卡
12#
发表于 2025-1-27 22:00:29 | 只看该作者
我的电脑能上32B版本
13#
发表于 2025-1-27 22:02:25 | 只看该作者
吃显卡吧, 不太懂

----------------------------------------------------------------

小尾巴~~~~~
14#
发表于 2025-1-27 22:09:35 | 只看该作者
要是你说的是r1的话, 个人应该不好部署. 要是你说的是蒸馏的千问或Llama, 我觉得还不如base model.

因为deepseek r1是MoE结构, 我估计拿CPU跑都不慢的. 以前我用老的服务器只用CPU跑也是MoE的WizardLM-2-8x22B, 一秒钟也有2, 3个token.

你要是有1T的内存, 可以试试用纯CPU跑.
15#
发表于 2025-1-27 23:45:51 | 只看该作者
julie 发表于 2025-1-27 22:09
要是你说的是r1的话, 个人应该不好部署. 要是你说的是蒸馏的千问或Llama, 我觉得还不如base model.

因为d ...

纯cpu慢吗
还是没有区别。
16#
发表于 2025-1-28 00:45:51 | 只看该作者
https://github.com/deepseek-ai/DeepSeek-V3/issues/241

请问我要运行推理,需要什么显卡配置

”DeepSeek-V3 采用 FP8 训练,并开源了原生 FP8 权重。“
参数量按700B算的话,大约就是700GB显存。
17#
发表于 2025-1-29 00:38:12 | 只看该作者
julie 发表于 2025-1-27 22:09
要是你说的是r1的话, 个人应该不好部署. 要是你说的是蒸馏的千问或Llama, 我觉得还不如base model.

因为d ...

有128内存,x99的机器,可以纯cpu跑吗
18#
发表于 2025-1-29 00:41:08 | 只看该作者
julie 发表于 2025-1-27 22:09
要是你说的是r1的话, 个人应该不好部署. 要是你说的是蒸馏的千问或Llama, 我觉得还不如base model.

因为d ...

用显卡跑有什么要求?
19#
发表于 2025-1-29 01:55:22 | 只看该作者
M3 Macbook Air有没有推荐的版本部署
20#
发表于 2025-1-29 11:11:48 | 只看该作者
水冰月 发表于 2025-1-29 00:38
有128内存,x99的机器,可以纯cpu跑吗

128G内存是跑不了deepseek r1的, 要大一点的内存才行. 即使能跑, 低的量化模型对生成质量有很大的影响, 生成结果可能很不好.

128G内存可以跑100G以内的量化模型, 就是速度会很慢. 因为r1模型是MoE架构的, 每次生成只依赖37B的参数, 所以会快. 如果是32B的千问, 速度还马马虎虎. 如果是70B的llama模型, 生成的会慢得多, 几乎受不了的.
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-10-29 00:44 , Processed in 0.063162 second(s), 7 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表