- 小陈 manage advert 发表时间:2026-04-12 12:29:16
大众贡献家用硬件能否训练出强开放权重LLM 研究方向
用户提问足够多民众用家用硬件能否训练出强开放权重llm,多数网友认为存在硬件、带宽瓶颈,训练耗时极长,最终相当于自建数据中心,不如直接用专用服务器,还有网友提出可探索新架构或压缩方案,也有不同看法。
0
回答
27
浏览
- 小陈 manage advert 发表时间:2026-04-12 12:23:29
大众用个人硬件能合力训练出强开放权重LLM吗 研究方向
网友提问:足够多人用个人硬件能否训练出强开放权重大模型?多数答主认为受显存、带宽瓶颈限制,训练前沿模型耗时极久,最终等同于自建数据中心,仅微调或可行;有人提议研发新架构压缩模型;也有人称已实现过该方案。
0
回答
35
浏览
- 小陈 manage advert 发表时间:2026-04-11 00:10:28
用户吐槽Anthropic的Claude突然性能明显变差 研究方向 国外模型
有用户在reddit发文称claude突然性能大幅下滑:查询词汇对错时回复出错卡顿;原本设置好可识别德英双语,此前数周运行正常,现在会乱切换语言,出错后ai的解释也逻辑混乱,该帖获得不同数量的点赞。
0
回答
38
浏览
- 小陈 manage advert 发表时间:2026-04-11 00:08:41
16GB Apple Silicon机器用什么本地大模型求推荐 研究方向 应用
提问者在16gb内存apple silicon芯片电脑上用ollama跑本地大模型,目前用gemma4能运行,想找更适合知识问答和编程的更好模型,已知内存紧张仍想尝试,暂无有效评论观点。
0
回答
14
浏览
- 小陈 manage advert 发表时间:2026-04-10 13:53:22
用户升级MacBook M5 Pro跑本地LLM,纠结选48还是64GB内存 研究方向 国内模型
提问者打算买m5 pro跑本地llm、做量化实验与数据回测,纠结48/64gb内存的选择。绝大多数网友建议优先选预算内最大容量,称64gb更够用且留有余量,仅少数人认为48gb足够应对当前主流模型。
0
回答
32
浏览
共5条
1