瞧,自己用CPU+MEM硬跑LLM的好处又来了

版主: Jack12345

回复
头像
HouseMD(黄皮川黑)楼主
著名点评
著名点评
帖子互动: 715
帖子: 4915
注册时间: 2022年 7月 28日 14:44

瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 HouseMD(黄皮川黑)楼主 »

能玩上最新的ds 3.1 , 还是685b的大模型。
外面租GPU来跑,那可就贵了,不太适合个人玩玩

图片
pathdream(葱韭集团团长)
论坛元老
论坛元老
帖子互动: 1549
帖子: 31680
注册时间: 2022年 7月 25日 11:42

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 pathdream(葱韭集团团长) »

你有5090? 狂赞

草你特铐谱祖宗十八代加后十八代 你踏马的去死吧
苍井吱(苍井吱吱)
见习点评
见习点评
帖子互动: 143
帖子: 1482
注册时间: 2024年 6月 17日 15:27

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 苍井吱(苍井吱吱) »

pathdream 写了: 2025年 8月 26日 19:28

你有5090? 狂赞

5090才32GB显存。lz的得768GB

2021年度十大优秀网友
2028年度优秀版主
按摩店前股东
脑特残的荣誉爹地

pathdream(葱韭集团团长)
论坛元老
论坛元老
帖子互动: 1549
帖子: 31680
注册时间: 2022年 7月 25日 11:42

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 pathdream(葱韭集团团长) »

苍井吱 写了: 2025年 8月 26日 19:33

5090才32GB显存。lz的得768GB

太有钱太ai了

草你特铐谱祖宗十八代加后十八代 你踏马的去死吧
RobotII
见习写手
见习写手
帖子互动: 13
帖子: 109
注册时间: 2024年 2月 7日 11:23

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 RobotII »

苍井吱 写了: 2025年 8月 26日 19:33

5090才32GB显存。lz的得768GB

同学是不跟踪local LLM 吧,这也太落后了。DeepSeek可以用多核CPU硬跑,根本不需要GPU。 只要DRAM达到512G, 就可以硬跑DeepSeek V3.1 Q4 满血版本。给个参考,Ebay上有HP Z840的老机子,价格便宜,有2个CPU,共36个Core.加上64X8共512GDDR4,也没多少钱(小于$1200)。再加一个16G以上显存的GPU,用Github 上国人的fastLLM transformer。就可以硬跑满血DeepSeek了。这个比租服务器爽多了。现在知道为啥中国AI要强撼老美了吧。

Mountainlion
论坛元老
论坛元老
帖子互动: 1984
帖子: 24431
注册时间: 2022年 12月 31日 16:11

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 Mountainlion »

硬跑满血DeepSeek有什么意义?

RobotII 写了: 2025年 8月 29日 18:40

同学是不跟踪local LLM 吧,这也太落后了。DeepSeek可以用多核CPU硬跑,根本不需要GPU。 只要DRAM达到512G, 就可以硬跑DeepSeek V3.1 Q4 满血版本。给个参考,Ebay上有HP Z840的老机子,价格便宜,有2个CPU,共36个Core.加上64X8共512GDDR4,也没多少钱(小于$1200)。再加一个16G以上显存的GPU,用Github 上国人的fastLLM transformer。就可以硬跑满血DeepSeek了。这个比租服务器爽多了。现在知道为啥中国AI要强撼老美了吧。

共产党就是赤裸裸黑手党
RobotII
见习写手
见习写手
帖子互动: 13
帖子: 109
注册时间: 2024年 2月 7日 11:23

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 RobotII »

大家用PC而不用Mainframe是为啥?

oxo
职业作家
职业作家
帖子互动: 115
帖子: 707
注册时间: 2025年 2月 4日 19:14

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 oxo »

RobotII 写了: 2025年 8月 29日 18:40

同学是不跟踪local LLM 吧,这也太落后了。DeepSeek可以用多核CPU硬跑,根本不需要GPU。 只要DRAM达到512G, 就可以硬跑DeepSeek V3.1 Q4 满血版本。给个参考,Ebay上有HP Z840的老机子,价格便宜,有2个CPU,共36个Core.加上64X8共512GDDR4,也没多少钱(小于$1200)。再加一个16G以上显存的GPU,用Github 上国人的fastLLM transformer。就可以硬跑满血DeepSeek了。这个比租服务器爽多了。现在知道为啥中国AI要强撼老美了吧。

能跑到多少T/S? 我在普通硬件上跑qwen3 235b 超残版(IQ1, 不到60G)可以有近6T/S,效果感觉还行。

ferrygao
论坛元老
论坛元老
帖子互动: 814
帖子: 19588
注册时间: 2023年 8月 28日 11:36

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 ferrygao »

RobotII 写了: 2025年 8月 29日 18:40

同学是不跟踪local LLM 吧,这也太落后了。DeepSeek可以用多核CPU硬跑,根本不需要GPU。 只要DRAM达到512G, 就可以硬跑DeepSeek V3.1 Q4 满血版本。给个参考,Ebay上有HP Z840的老机子,价格便宜,有2个CPU,共36个Core.加上64X8共512GDDR4,也没多少钱(小于$1200)。再加一个16G以上显存的GPU,用Github 上国人的fastLLM transformer。就可以硬跑满血DeepSeek了。这个比租服务器爽多了。现在知道为啥中国AI要强撼老美了吧。

耗电如何 比挖矿呢

知道很多人的居住环境以后 我终于明白为啥会有这些想法了
苍井吱(苍井吱吱)
见习点评
见习点评
帖子互动: 143
帖子: 1482
注册时间: 2024年 6月 17日 15:27

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 苍井吱(苍井吱吱) »

ferrygao 写了: 2025年 8月 30日 20:13

耗电如何 比挖矿呢

这不冬天来了吗

2021年度十大优秀网友
2028年度优秀版主
按摩店前股东
脑特残的荣誉爹地

头像
YouHi
论坛元老
论坛元老
YouHi 的博客
帖子互动: 2823
帖子: 37628
注册时间: 2022年 7月 22日 22:36

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 YouHi »

楼主把配置说说吧

著名网友名单
🇺🇸 NC CHINESE AMERICANS FOR TRUMP 🛩️
你也是Trump U毕业的吗???
tiantian2000
著名点评
著名点评
帖子互动: 361
帖子: 3821
注册时间: 2023年 6月 21日 19:55

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 tiantian2000 »

Mountainlion 写了: 2025年 8月 29日 18:50

硬跑满血DeepSeek有什么意义?

相当于洪波的自家枪械库,自娱自乐

ferrygao
论坛元老
论坛元老
帖子互动: 814
帖子: 19588
注册时间: 2023年 8月 28日 11:36

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 ferrygao »

苍井吱 写了: 2025年 8月 30日 23:18

这不冬天来了吗

且热且发烧

知道很多人的居住环境以后 我终于明白为啥会有这些想法了
宇宙
职业作家
职业作家
帖子互动: 154
帖子: 759
注册时间: 2025年 2月 26日 07:12

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 宇宙 »

你去用api 一般不会给你最大的模型
简单问题后台给你换便宜的

Mountainlion 写了: 2025年 8月 29日 18:50

硬跑满血DeepSeek有什么意义?

RobotII
见习写手
见习写手
帖子互动: 13
帖子: 109
注册时间: 2024年 2月 7日 11:23

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 RobotII »

oxo 写了: 2025年 8月 30日 20:10

能跑到多少T/S? 我在普通硬件上跑qwen3 235b 超残版(IQ1, 不到60G)可以有近6T/S,效果感觉还行。

满血DeepSeek V3.1, Q4 版,380多G,可以跑到5TPS。

RobotII
见习写手
见习写手
帖子互动: 13
帖子: 109
注册时间: 2024年 2月 7日 11:23

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 RobotII »

Mountainlion 写了: 2025年 8月 29日 18:50

硬跑满血DeepSeek有什么意义?

满血(即使是1.58bits 的低精度版)比蒸馏后的小参数版要有更深的深度回答,小参数模型总给人以customer service 的感觉,而满血模型就像跟专家讨论。

RobotII
见习写手
见习写手
帖子互动: 13
帖子: 109
注册时间: 2024年 2月 7日 11:23

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 RobotII »

ferrygao 写了: 2025年 8月 30日 20:13

耗电如何 比挖矿呢

全速答题时500瓦左右,待机小于100瓦。没挖过矿,不清楚。听说挖矿是24小时都在开着,做自己用的LLM,耗电应该是不必考虑的。

ferrygao
论坛元老
论坛元老
帖子互动: 814
帖子: 19588
注册时间: 2023年 8月 28日 11:36

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 ferrygao »

RobotII 写了: 2025年 9月 2日 16:55

全速答题时500瓦左右,待机小于100瓦。没挖过矿,不清楚。听说挖矿是24小时都在开着,做自己用的LLM,耗电应该是不必考虑的。

24小时一年1000刀

知道很多人的居住环境以后 我终于明白为啥会有这些想法了
oxo
职业作家
职业作家
帖子互动: 115
帖子: 707
注册时间: 2025年 2月 4日 19:14

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 oxo »

RobotII 写了: 2025年 9月 2日 16:14

满血DeepSeek V3.1, Q4 版,380多G,可以跑到5TPS。

5T/S不错了,基本可用。我现在的系统勉强可以塞下Q2的QWEN3 235B版本,context window 4096时5T/S多点,我把这个值调到7000多时4T/S多些,凑合。

oxo
职业作家
职业作家
帖子互动: 115
帖子: 707
注册时间: 2025年 2月 4日 19:14

Re: 瞧,自己用CPU+MEM硬跑LLM的好处又来了

帖子 oxo »

RobotII 写了: 2025年 9月 2日 16:21

满血(即使是1.58bits 的低精度版)比蒸馏后的小参数版要有更深的深度回答,小参数模型总给人以customer service 的感觉,而满血模型就像跟专家讨论。

是,蒸馏本质是背题,学到面子。

回复

回到 “电脑手机 - 精华区”