实测:12GB显存可流畅运行35B级Qwen 35B-A3B MoE大模型
2026-05-10 01:58:18
21次阅读
3个评论
楼主用RTX3060 12GB实测Qwen3.6-35B-A3B,优化参数后支持32k上下文、解码速度优异;评论区反馈6/8GB显存也能运行,还讨论了量化效果、硬件适配等问题。
0
0
2026-05-10 01:58:51

回复 |
引用
2026-05-10 01:59:20

回复 |
引用
2026-05-10 01:59:49

回复 |
引用
共3条
1
相关帖子
- 嫁接MTP的Qwen3.6-35B-A3B模型实测结果公布
- 12GB显存跑Qwen3.6 35B:80tok/s+128K上下文!llama.cpp MTP攻略
- 实测Qwen3.6-35B MoE:显存有限时更大量化反而性能更好
- Qwen3.6 35B无审查Heretic模型获赞 被称同参数级最佳
- Qwen3.6 27B编码效果超35B MoE引本地AI用户热议
- 16GB显存跑大LLM妙招:插旧6GB+显存显卡扩容提速
- 网友实测Qwen3 TTS本地实时运行:表现力超强被严重低估
- Qwen3.6-35B搭适配代理追平云模型引发社区热议
- 用户在MacBook Pro M5 Max 128GB本地跑通Qwen3.6-35B,体验不输Claude
- Qwen发布Qwen-Scope官方SAE 可对大模型做“脑部手术”