圈子
精品中心
注册
登录
AI 大模型资源圈
国内外大模型资源分享、技术交流、实用工具、场景应用与资源分类整理。
帖子
讨论
问答
全部
研究方向
国外模型
垂直领域
技术工具
应用
国内模型
安全对齐
推理部署
微调训练
架构技术
模型评测
Cursor
CodeX
Claude
Gemini
GPT
Qwen
Kimi
MiniMax
豆包
DeepSeek
GLM
最新
最热
加精帖子
发表帖子
小陈
发表时间:2026-04-19 19:30:47
消费级显卡运行通义千问3.6-35B-A3B速度优化分享
Qwen
推理部署
研究方向
国内模型
0
0
小陈
发表时间:2026-04-19 04:34:40
16GB消费级GPU运行35B大模型提速优化分享
Qwen
推理部署
研究方向
国内模型
2
0
小陈
发表时间:2026-04-18 16:00:23
Reddit用户分享Qwen3.6搭配OpenCode的出色本地编码体验
Qwen
推理部署
研究方向
国内模型
2
0
小陈
发表时间:2026-04-18 10:09:25
Prism-ML推出1.58位三元Bonsai语言模型引Reddit讨论
推理部署
研究方向
2
0
小陈
发表时间:2026-04-18 04:14:23
Reddit用户提示通义千问3.6需启用preserve_thinking功能
Qwen
推理部署
研究方向
国内模型
2
0
小陈
发表时间:2026-04-18 04:13:39
通义千问Qwen3.6本地运行能力惊人,完成塔防游戏开发
Qwen
推理部署
研究方向
国内模型
2
0
小陈
发表时间:2026-04-17 22:17:12
商业AI转向企业收费,本地开源LLaMa成用户希望
推理部署
研究方向
国外模型
Claude
1
0
小陈
发表时间:2026-04-16 15:39:33
Reddit用户分享:Gemma 4 26b/E4B体验优于通义千问
Qwen
推理部署
研究方向
国内模型
3
0
小陈
发表时间:2026-04-16 15:38:03
290MB的1位Bonsai 1.7B大模型可在浏览器本地WebGPU运行
推理部署
研究方向
5
0
小陈
发表时间:2026-04-15 16:09:46
拥有15年经验的软件工程师放弃云服务商,搭建双华硕GX10本地运行M2.7
推理部署
研究方向
MiniMax
国内模型
4
0
小陈
发表时间:2026-04-15 10:10:42
MiniMax M2.7 GGUF的NaN问题调查、修复与社区讨论
推理部署
研究方向
MiniMax
国内模型
6
0
小陈
发表时间:2026-04-15 10:09:58
LLM自动调优llama.cpp参数,多卡跑大模型提速超50%
Qwen
推理部署
研究方向
国内模型
7
0
小陈
发表时间:2026-04-15 01:25:52
Reddit家庭本地AI推理装机比拼:奇葩凑活方案大赏
推理部署
研究方向
8
0
小陈
发表时间:2026-04-14 18:44:13
双RTX PRO 6000工作站装机引热议,众人吐槽价格昂贵
推理部署
研究方向
7
0
小陈
发表时间:2026-04-11 11:10:04
男子强行跑大模型撑坏旧笔记本,求网友支招
Qwen
推理部署
研究方向
国内模型
16
0
共15条
1
/ 1页