20241230 - vLLM + Qwen2.5-Coder-32B-Instruct 驱动的新的标签系统 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Livid
230.29D
587.89D
V2EX    V2EX 站点状态

20241230 - vLLM + Qwen2.5-Coder-32B-Instruct 驱动的新的标签系统

  •  
  •   Livid
    PRO
    2024-12-30 16:35:03 +08:00 4440 次点击
    这是一个创建于 374 天前的主题,其中的信息可能已经有所发展或是发生改变。
    V2EX 除了节点之外,也会根据主题内容生成 3 个 tag 。

    之前这个系统用的是 Boson NLP 提供的服务,不过他们后来停止了这个 API 服务。

    然后这件事情就搁置了一段时间。

    最近用 vLLM 部署了 Qwen2.5-Coder-32B-Instruct ,然后尝试用 prompt 的方式来为主题生成标签。虽然某些时候会产生无限循环,但是大部分情况下效果很不错。

    目前大概 2 - 3 秒可以分析完一个主题并生成 3 个 tag 。
    13 条回复    2025-01-02 18:40:38 +08:00
    Tubbs
        1
    Tubbs  
       2024-12-30 16:36:38 +08:00 via Android
    vLLM 部署确实很方便,用的什么设备部署的呢?
    yangyaofei
        2
    yangyaofei  
       2024-12-30 16:45:57 +08:00   1
    可以用 guided 参数让模型输出固定格式的内容 https://docs.vllm.ai/en/latest/usage/structured_outputs.html, 在加上两部输出(先输出标签格式随意, 输出内容用 LLM 再格式化为 json), 可以获得很好的效果, 当然 prompt 和模型够强够好一部也没问题.

    还有, 我好奇为啥用 coder
    Donaldo
        3
    Donaldo  
       2024-12-30 16:47:53 +08:00
    同一张卡,同一个 CUDA 版本,vllm 我实测比 ollama 快几个 token/s 。
    Livid
        4
    Livid  
    MOD
    OP
    PRO
       2024-12-30 16:51:21 +08:00
    @yangyaofei 也试过 Llama 和 QwQ-32B-Preview

    Llama 会在输入是中文内容的情况,依然给出英文结果。

    QwQ 的输出结果大部分情况下太自由发挥了。

    Qwen2.5-Coder 的结果是最稳定的。

    Google 的 Gemini 2.0 效果也很好,但是免费额度和频率限制不太够用。
    Livid
        5
    Livid  
    MOD
    OP
    PRO
       2024-12-30 16:52:16 +08:00
    另外一个考虑就是因为这里大部分的内容,估计和 Coder 的训练内容也是重合的。
    Livid
        6
    Livid  
    MOD
    OP
    PRO
       2024-12-30 17:15:14 +08:00
    有时候甚至会生成一些原文中没有出现的词,但似乎也不完全是坏事,比如这个主题:

    t/1101285

    “比较”这个词没有在原文里出现。
    scys
        7
    scys  
       2024-12-30 20:43:51 +08:00   1
    其实也有不准的地方,好想这个帖子:

    t/1101303#reply29
    scys
        8
    scys  
       2024-12-30 20:44:54 +08:00
    好想 => 好像,感觉 Prompt 可以提供例子,可能会更加准确。我现在用的 Flux Prompt 构建器,提供例子会更加准确。仅作参考,不是 Prompt 达人。
    Livid
        9
    Livid  
    MOD
    OP
    PRO
       2024-12-30 20:47:48 +08:00
    @scys 是的。而且每次生成的结果是不一样的。

    我试试让那个帖子重新生成一次。
    musi
        10
    musi  
       2024-12-30 22:30:27 +08:00 via iPhone   2
    除了标签之外 v2 有考虑使用 embedding 做语义化搜索帖子的功能吗
    yangyaofei
        11
    yangyaofei  
       2024-12-31 10:02:38 +08:00   2
    @Livid #4 哦, qwq llama 肯定是不行的, 前者是尽量 CoT 会输出很多中间过程, llama 个代都对中文支持很不好, 我想说的是比如 qwen2.5-instruct 这种非 coder 模型. 如果显存够的话, 65B 的 4bit 量化模型性能很不错的

    生成原文没有的词挺正常的, 毕竟生成模型, 而且也不一定影响结果的正确, 想避免的话可以 prompt 加入用原文的词的设定, 想进一步控制的话, 可能性能就下降很多了(比如前面的 Guided 方式也可以实现)
    Livid
        12
    Livid  
    MOD
    OP
    PRO
       2025-01-02 17:53:20 +08:00   1
    @musi 今天刚刚把 faiss 的 demo 跑通,这个东西太有意思了,可以做的不只是搜索,相关性推荐看起来也可以。

    如果用 384 的 dimension 参数,貌似要把 V 站目前的 110 万个主题给索引,差不多可能需要至少 1.5G 的显存?
    musi
        13
    musi  
       2025-01-02 18:40:38 +08:00 via iPhone   1
    @Livid 赞,希望在不久的将来能在 v2 上看到这些功能。不过推荐的话不知道有没有用户反感推荐算法的
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     4569 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 36ms UTC 04:02 PVG 12:02 LAX 20:02 JFK 23:02
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86