AI 大模型资源圈

国内外大模型资源分享、技术交流、实用工具、场景应用与资源分类整理。

  • 小陈 发表时间:2026-04-19 19:30:47

消费级显卡运行通义千问3.6-35B-A3B速度优化分享 Qwen 推理部署 研究方向 国内模型

0
0
  • 小陈 发表时间:2026-04-19 04:34:40

16GB消费级GPU运行35B大模型提速优化分享 Qwen 推理部署 研究方向 国内模型

2
0
  • 小陈 发表时间:2026-04-18 16:00:23

Reddit用户分享Qwen3.6搭配OpenCode的出色本地编码体验 Qwen 推理部署 研究方向 国内模型

2
0
  • 小陈 发表时间:2026-04-18 10:09:25

Prism-ML推出1.58位三元Bonsai语言模型引Reddit讨论 推理部署 研究方向

2
0
  • 小陈 发表时间:2026-04-18 04:14:23

Reddit用户提示通义千问3.6需启用preserve_thinking功能 Qwen 推理部署 研究方向 国内模型

2
0
  • 小陈 发表时间:2026-04-18 04:13:39

通义千问Qwen3.6本地运行能力惊人,完成塔防游戏开发 Qwen 推理部署 研究方向 国内模型

2
0
  • 小陈 发表时间:2026-04-17 22:17:12

商业AI转向企业收费,本地开源LLaMa成用户希望 推理部署 研究方向 国外模型 Claude

1
0
  • 小陈 发表时间:2026-04-16 15:39:33

Reddit用户分享:Gemma 4 26b/E4B体验优于通义千问 Qwen 推理部署 研究方向 国内模型

3
0
  • 小陈 发表时间:2026-04-16 15:38:03

290MB的1位Bonsai 1.7B大模型可在浏览器本地WebGPU运行 推理部署 研究方向

5
0
  • 小陈 发表时间:2026-04-15 16:09:46

拥有15年经验的软件工程师放弃云服务商,搭建双华硕GX10本地运行M2.7 推理部署 研究方向 MiniMax 国内模型

4
0
  • 小陈 发表时间:2026-04-15 10:10:42

MiniMax M2.7 GGUF的NaN问题调查、修复与社区讨论 推理部署 研究方向 MiniMax 国内模型

6
0
  • 小陈 发表时间:2026-04-15 10:09:58

LLM自动调优llama.cpp参数,多卡跑大模型提速超50% Qwen 推理部署 研究方向 国内模型

7
0
  • 小陈 发表时间:2026-04-15 01:25:52

Reddit家庭本地AI推理装机比拼:奇葩凑活方案大赏 推理部署 研究方向

8
0
  • 小陈 发表时间:2026-04-14 18:44:13

双RTX PRO 6000工作站装机引热议,众人吐槽价格昂贵 推理部署 研究方向

7
0
  • 小陈 发表时间:2026-04-11 11:10:04

男子强行跑大模型撑坏旧笔记本,求网友支招 Qwen 推理部署 研究方向 国内模型

16
0
共15条 1