全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

IP归属甄别会员请立即修改密码
查看: 1868|回复: 16
打印 上一主题 下一主题

集显、docker本地部署deepseek大模型

[复制链接]
跳转到指定楼层
1#
发表于 2025-1-28 22:48:02 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 云生 于 2025-1-28 22:49 编辑

https://v.douyin.com/if45L5qx/

deepseek r1  1.5B
最小的模型,可以用集显运行
docker 部署
2#
发表于 2025-1-28 22:49:52 来自手机 | 只看该作者
客户端凑合用,又不是ai包子
4#
发表于 2025-1-28 22:55:39 | 只看该作者
不是很明白 自己部署了有啥用? 还需要自己训练么?
5#
发表于 2025-1-28 22:56:08 | 只看该作者
集显显存能多大
6#
发表于 2025-1-28 22:58:10 | 只看该作者
API便宜部署个毛线,多大量啊
7#
发表于 2025-1-28 23:55:31 | 只看该作者
7b我都嫌废,这还1.5b
8#
发表于 2025-1-29 01:02:56 | 只看该作者
本帖最后由 Hetzner 于 2025-1-31 22:45 编辑

大模型,即大型语言模型(LLM),是指基于Transformer 模型架构,具有大规模参数和复杂计算结构的超大型机器学习模型(超过10 亿个参数),通常由深度神经网络构建,对海量数据进行预训练处理。 大模型的底层转换器包含一系列神经网络,分为编码器和解码器,且具有自注意力功能。

@william2ct 虚心接受改正,你是对的

点评

1b=10亿,没记错的话,billion  发表于 2025-1-31 22:40
9#
发表于 2025-1-29 01:05:46 | 只看该作者
集显就算了,6系A卡能不能跑?
10#
发表于 2025-1-29 06:24:04 | 只看该作者
louiejordan 发表于 2025-1-29 01:05
集显就算了,6系A卡能不能跑?

你OUT了,谁告诉你非要独立显卡跑的?一年前deep seek家的模型就不吃显卡了。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-9-22 01:32 , Processed in 0.067003 second(s), 10 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表