
1 FarAhead 2025 年 12 月 11 日 https://v2ex.com/t/1178090 为什么 GLM v4.6 + Claude Code 可用性极差? |
2 gotoschool 2025 年 12 月 11 日 @FarAhead 哈哈 第一个砸场子的来了 |
3 shakaraka PRO 为什么智普对比 opus 4.5 差那么多? |
4 subpo 2025 年 12 月 11 日 先用 GLM-4.6V 整理一下发帖格式? |
5 defunct9 2025 年 12 月 11 日 智普?质朴?离谱? |
6 lw10645 2025 年 12 月 11 日 喜欢爸爸还是喜欢妈妈? |
7 duuu 2025 年 12 月 11 日 GLM-4.6V 我想用于游戏内容识别,如果对于大模型没有训练过的内容,有微调的方案吗? |
8 coolair 2025 年 12 月 11 日 价格能不能再便宜点? |
9 mengdodo 2025 年 12 月 11 日 大众只记得第一第二名,从不记得第三名叫什么 |
10 cbythe434 2025 年 12 月 11 日 智谱曾经风光过,现在有点掉队了,你觉得是什么原因 |
11 Sezxy 2025 年 12 月 11 日 赶紧扩容吧,别再降智了 |
12 sharpy 2025 年 12 月 11 日 4.7 啥时候发,已经买了一年的 plan ,莫辜负 |
13 superkkk 2025 年 12 月 11 日 4.6V 能不能测一下这个数据集看看实例 https://huggingface.co/datasets/DietCoke4671/ToolVQA |
14 sillydaddy 2025 年 12 月 11 日 > “活动。。 傍晚 6 点至晚 10 点举行” 。。。。。在哪里举行? |
15 re2ikotr 2025 年 12 月 11 日 招实习吗 |
16 Zhipuai OP PRO @sillydaddy 就在这个社区哦 |
17 intmax2147483647 2025 年 12 月 11 日 你的 ID 可以改成 ZhipuAI 吗? 不要写成 Zhipuai |
18 location123 2025 年 12 月 11 日 不要超卖 买了 plan 后 速度又慢 又笨直接放弃 祝好 |
20 gorvey 2025 年 12 月 11 日 1. 最近套餐很火,降智非常严重,体验很差 2. glm 4.6 是和 claude-sonnet-4.5 一天推出的,而 claude-opus-4.5 已经发布了,什么时候出新模型 |
21 darksword21 PRO 能涩涩吗 |
22 sunzhenyucn 2025 年 12 月 11 日 @FarAhead lol, what can i say |
23 akiyamamio 2025 年 12 月 11 日 glm 为啥做前端,对比 claude 4.5 很难看?下一版能不能提高下审美 |
24 tt83 2025 年 12 月 11 日 GLM 5 什么时候发布 |
27 ktyang 2025 年 12 月 11 日 理解用户意图简直抓狂。。。你们能展示一下正常工程代码中的任务跟 claude 同样提示词执行的对比么? |
28 DavisNull 2025 年 12 月 11 日 被骗了这么久,GLM-4.6 什么时候才能支持 Claude Code 思考模式? |
29 Hilong 2025 年 12 月 11 日 真金白银买了套餐的用户说一句,感觉买亏了。现在根本没法用,太弱智了 |
30 SorryChen 2025 年 12 月 11 日 1. 数据部分中,有没有设计实验验证每个数据来源的有效性?有没有啥经验哇? 2. 多模态模型训练过程中怎么和纯语言模型配合呢? |
31 webcape233 2025 年 12 月 11 日 via iPhone @mengdodo 第三名就好了哦,现在五六七八开外 |
32 sunfly 2025 年 12 月 11 日 |
33 DefoliationM 2025 年 12 月 11 日 不是有问必答吗?为什么不回答上面的人的问题? |
34 Solix 2025 年 12 月 12 日 via iPhone 散了吧,楼主已被吓跑 |
35 sunzhenyucn 2025 年 12 月 12 日 @DefoliationM 选择性回答,但凡提出一点批评就装聋作哑,这样公司什么成分就不必明说了吧 |
36 dddd1919 2025 年 12 月 12 日 ding Plan 是什么 |
37 russ44 2025 年 12 月 12 日 前几天活动买了 lite 年费, 非常弱智, 每次生成代码都有编译错误...已申请退款 |
38 sagnitude 2025 年 12 月 12 日 我第一时间就买了一年订阅,一开始还行,最近写代码经常会出现事实性错误(指东打西,或者对着不存在的问题怼),现在已经全程 opus 4.5 了,多的不要求,GLM 4.7 能超过 sonnet 4.5 吗,懒得去退款了 |
39 unco020511 2025 年 12 月 12 日 有问必答 = 一言不发 |
40 shunia 2025 年 12 月 12 日 好像是第一次看到在 V2 进行 AMA 的,智谱也确实是整个国产模型中更贴近开发者的,我自己看 reddit ,国外开发者也对 z.ai 的评价很高。 请问:智谱团队对自家最新模型有做过横评吗?在国内一众模型中,你们觉得自己处于什么位置?最好可以用一个或几个图表对比一下:性能、评分、价格,或者你们觉得有意义的对比参数。 |
41 1988chg 2025 年 12 月 12 日 智谱团队目前主要是什么硬件在跑 AI 大模型。是否有采购 H200 ? H200 对比现有的一些 AI 设备,会有哪些优势。 抛开哪些什么因素不谈,只是技术和参数的讨论。 |
42 akiyamamio 2025 年 12 月 12 日 所以昨晚到底举办了什么活动?这公司到底啥情况? |
43 BingoW 2025 年 12 月 12 日 auGLM 和豆包手机底层技术是一样的吗 |
44 jiey2 2025 年 12 月 12 日 GLM 公司内党员多吗?党建工作规律开展吗? |
45 Hitori0221 2025 年 12 月 12 日 你觉得 RKLB 看多高? |
46 aleimu 2025 年 12 月 12 日 GLM 和 Qwen 都是国产之光 |
48 logictan89 2025 年 12 月 14 日 GLM TTS 克隆效果不行,为啥比开源的还差? |
49 nefucucu 2025 年 12 月 14 日 什么时候支持 CC 的 thinking mode 和 codex? |
50 nkcfc 2025 年 12 月 15 日 via Android 搭配 cc 那简直没法用,搭配 opencode 能开启思考,会好一些。 |
51 imik 2025 年 12 月 15 日 这活动开展了个寂寞? |
53 Zhipuai OP PRO @SorryChen "1. 会做一些领域数据的单训实验来验证效果,包括作为最终合训数据比例的依据; 2. 我们目前是基于纯文本的 GLM pretraining 模型做 VLM 加训和多模态的 post training" |
54 Zhipuai OP PRO @logictan89 请问克隆效果不行是体现在哪里呢?是发音不准确还是克隆音色相似度不高?在主观测评和开源客观评测集上,GLM-TTS 都取得了不错的指标,不知道你说的比开源的差是和哪个对比?我们的模型已经开源,如果有问题可以在 github 的 issue 中提出,我们可以进行讨论。 |
55 Zhipuai OP PRO @re2ikotr 这是一个属于探索者的时代。 如果你渴望在顶级 AI 团队中挑战自我,无论是实习历练还是职业进阶,我们都随时欢迎。 投递通道: [email protected] 招聘列表: https://zhipu-ai.jobs.feishu.cn/index |
56 logictan89 2025 年 12 月 17 日 @Zhipuai 我是在 audio.z.ai 里面体验的,随便找了个干声进行克隆。当前其他开源模型( indextts2/cosyvoice2/3/vibevoice 等)虽然在情绪和语调上还达不到非常理想的程度,但是至少音色方面差的不会很多。但是在 audio.z.ai 上,是目前唯一一个在音色方面就让我觉得“不像”输入音频的体验。更不必说,生成的语音说话一板一眼的,一点特色都没有。所以我后续也没有去 github 上尝试开源版本,毕竟下载和搭建也挺费劲的。 如果 audio.z.ai 上的模型版本和开源版本不一样,那你们是否要考虑更新一下; 如果是一样的,那我不知道官方自己用的多不多,是不是被评测蒙蔽了双眼;又或者我使用的音源比较特殊。 无论如何,当前 AI 竞赛,不管是大语言模型还是 TTS ,都陷入了拼评分的怪圈。实际上,常年在一线使用产品的用户,对于模型的实际能力是很敏感的。我们团队半年前用 minimax 的 2.0 版本,体验很惊艳,立马充值。但是不久之后开始降智,官方不断出新的模型版本,每次都号称比之前版本好,但我们自己用下来就知道,不行就是不行,和新出来的开源模型都比不了。 所以奉劝你们,不要被评测评分迷了眼。它是一个评判方式,但不是唯一一个。我的建议是,自己多用用。 |