能玩上最新的ds 3.1 , 还是685b的大模型。
外面租GPU来跑,那可就贵了,不太适合个人玩玩
瞧,自己用CPU+MEM硬跑LLM的好处又来了
版主: Jack12345
Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了
同学是不跟踪local LLM 吧,这也太落后了。DeepSeek可以用多核CPU硬跑,根本不需要GPU。 只要DRAM达到512G, 就可以硬跑DeepSeek V3.1 Q4 满血版本。给个参考,Ebay上有HP Z840的老机子,价格便宜,有2个CPU,共36个Core.加上64X8共512GDDR4,也没多少钱(小于$1200)。再加一个16G以上显存的GPU,用Github 上国人的fastLLM transformer。就可以硬跑满血DeepSeek了。这个比租服务器爽多了。现在知道为啥中国AI要强撼老美了吧。
-
Mountainlion
- 论坛元老

- 帖子互动: 2158
- 帖子: 26247
- 注册时间: 2022年 12月 31日 16:11
Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了
硬跑满血DeepSeek有什么意义?
RobotII 写了: 2025年 8月 29日 18:40同学是不跟踪local LLM 吧,这也太落后了。DeepSeek可以用多核CPU硬跑,根本不需要GPU。 只要DRAM达到512G, 就可以硬跑DeepSeek V3.1 Q4 满血版本。给个参考,Ebay上有HP Z840的老机子,价格便宜,有2个CPU,共36个Core.加上64X8共512GDDR4,也没多少钱(小于$1200)。再加一个16G以上显存的GPU,用Github 上国人的fastLLM transformer。就可以硬跑满血DeepSeek了。这个比租服务器爽多了。现在知道为啥中国AI要强撼老美了吧。
共产党是赤裸裸的黑手党,没有法律,没有道德,没有人性. 它做的都是见不得阳光的事
Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了
RobotII 写了: 2025年 8月 29日 18:40同学是不跟踪local LLM 吧,这也太落后了。DeepSeek可以用多核CPU硬跑,根本不需要GPU。 只要DRAM达到512G, 就可以硬跑DeepSeek V3.1 Q4 满血版本。给个参考,Ebay上有HP Z840的老机子,价格便宜,有2个CPU,共36个Core.加上64X8共512GDDR4,也没多少钱(小于$1200)。再加一个16G以上显存的GPU,用Github 上国人的fastLLM transformer。就可以硬跑满血DeepSeek了。这个比租服务器爽多了。现在知道为啥中国AI要强撼老美了吧。
能跑到多少T/S? 我在普通硬件上跑qwen3 235b 超残版(IQ1, 不到60G)可以有近6T/S,效果感觉还行。
Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了
RobotII 写了: 2025年 8月 29日 18:40同学是不跟踪local LLM 吧,这也太落后了。DeepSeek可以用多核CPU硬跑,根本不需要GPU。 只要DRAM达到512G, 就可以硬跑DeepSeek V3.1 Q4 满血版本。给个参考,Ebay上有HP Z840的老机子,价格便宜,有2个CPU,共36个Core.加上64X8共512GDDR4,也没多少钱(小于$1200)。再加一个16G以上显存的GPU,用Github 上国人的fastLLM transformer。就可以硬跑满血DeepSeek了。这个比租服务器爽多了。现在知道为啥中国AI要强撼老美了吧。
耗电如何 比挖矿呢
-
tiantian2000
- 著名点评

- 帖子互动: 456
- 帖子: 4616
- 注册时间: 2023年 6月 21日 19:55
Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了
满血(即使是1.58bits 的低精度版)比蒸馏后的小参数版要有更深的深度回答,小参数模型总给人以customer service 的感觉,而满血模型就像跟专家讨论。




