
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。
硬件配置跟不上的情况下需要等待更长的时间。
PS: https://chat.qwen.ai 上面的
Qwen3.6-Max-Preview模型更离谱,让他写一个 ts 版本的身份证解析和验证闭包,输出一大堆的思考由于 AI 的随机性,可能有人测试并不一定会出现长思考,但是出现概率挺高的
1 coefu 2 天前 速食吃多了,dy 看多了,既要快,又要好,还要准。可能吗? |
2 sddyzm PRO 不慢吧 |
3 beyondstars 2 天前 我更怕 AI 不带脑子地一通瞎写,多思考思考至少有个心理安慰,看着 AI 的思考过程能对接下来的输出质量有个大概的把握。 |
4 beyondstars 2 天前 现在市场上最不缺的就是机械化流水化生成的 AI Slop ,做得对比做得快更重要,生成一堆狗屎不仅仅是折磨你自己,也是在折磨后续接收代码的人和维护代码的 agent ,想想多少 token 要浪费在这些屎山代码上。 |
5 ixoy 2 天前 好好想想,DeepSeek 的中文是什么意思。DEEEEEEEEEEEEEEEP |
6 visper 2 天前 感觉 qwen3.5 很容易胡思乱想。 |
9 kekxv OP @beyondstars 担心这个的话,我觉得 cc 和 gemini-cli 的规划( plan )模式应该很适合你 |
10 zan0723 37 分钟前 AI 帮我优化的东西我都得对着自己的原创再检查一边,就怕它瞎说 |