全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

IP归属甄别会员请立即修改密码
查看: 1171|回复: 10
打印 上一主题 下一主题

deepseek模型能在vps上跑吗

[复制链接]
跳转到指定楼层
1#
发表于 2025-2-2 05:44:44 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
就是deepseekchat模型  能用cpu跑吗  如果vps不行 杜甫需要至少什么配置才行?有没有试过的大佬
推荐
发表于 2025-2-2 08:43:30 | 只看该作者
看配置,可以试试1.5B的,我的普通笔记本配置问了ChatGPT说最多能跑7B的,我试了试,勉强能跑14B的呢
3#
发表于 2025-2-2 07:20:04 | 只看该作者
有4090 gpu的vps勉强一试

4#
发表于 2025-2-2 07:56:38 | 只看该作者
蒸馏过的
原版671b
你4090最多就32b
6#
发表于 2025-2-2 08:47:33 | 只看该作者
云服务器差不多吧.  谷歌 甲骨文 亚马逊的. GPU估计价格贵死.
自己部署没任何意义. 部署完的跟他们官网的问答结果也不一样. 自己部署的一般都比较笨.
7#
发表于 2025-2-2 09:48:35 | 只看该作者
普通的肯定不行
8#
发表于 2025-2-2 10:21:32 | 只看该作者
LLM很久以前就能跑在树莓派上了,但是都是很小的模型或者经过量化的模型,跟L没什么关系了
9#
发表于 2025-2-2 10:25:22 | 只看该作者
能,但是没有必要
10#
发表于 2025-2-2 11:09:20 | 只看该作者
家里电脑配置还过得去的,可以跑个14B-32B,然后提供接口,通过FRP映射到VPS上,这样就可以在外面用了,不过没什么必要,完整版的API以后就是白菜价,正常人又不会高频使用的,自建意义不大
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-9-8 13:46 , Processed in 0.062921 second(s), 10 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表