最新写了一个通过大语言模型 LLM 解读最新 arXiv 论文的 Github 项目,不知道有没有用? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
zhangliang605
V2EX    分享发现

最新写了一个通过大语言模型 LLM 解读最新 arXiv 论文的 Github 项目,不知道有没有用?

  •  
  •   zhangliang605 177 天前 478 次点击
    这是一个创建于 77 天前的主题,其中的信息可能已经有所发展或是发生改变。

    最新写了一个通过大语言模型 LLM 解读最新 arXiv 论文的 Github 项目 latest_arxiv_analyze_ai ,分析cs.AI分类下的最新论文大概每天 400 多篇,结构化输出Background(论文背景),Innovation (创新点),Conclusion (结论)等关键信息,帮助大家快速了解最新的研究成功。

    通过 LLM 对最新的 arXiv 论文进行解读后,我导出了三份文件:

    1. markdown:以 markdown 格式组织,方便阅读。
    2. atom.xml: 以 atom.xml 格式组织,大家可以使用 RSS 阅读器或 Zotero 进行订阅,每天更新后自动推送,推荐订阅
    3. rss.xml: 以 rss.xml 格式组织,大家可以使用 RSS 阅读器或 Zotero 进行订阅,每天更新后自动推送。

    欢迎大家 Star 我的这个 Github 项目,持续关注项目进度: latest_arxiv_analyze_ai

    目前更多的论文主题解读进行中,希望能够帮助到大家~~

    arXiv

    arxiv_papers_analyze AI|LLM RSS|ATOM Markdown Python


    下面是一个栗子:

    367. cs.AI - 高效零售视频注释:适用于商品和顾客互动分析的稳健关键帧生成方法 PDF, HTML

    Authors

    Varun Mannam,Zhenyu Shi

    Background

    准确的视频注释在现代零售应用中扮演着至关重要的角色,包括客户行为分析、产品互动检测以及店内活动识别。然而,传统注释方法很大程度上依赖于耗费时间的手动标注,导致关键帧选择不够稳健,并增加了运营成本。特别是在零售领域,解决这些挑战的需求十分迫切。

    Innovation

    本文提出了一种基于深度学习的方法,自动识别零售视频中的关键帧并自动标注产品和顾客。该方法利用深度神经网络学习具有辨别性的特征,并结合了适合零售环境的对象检测技术。实验结果表明,与传统方法相比,该方法在标注准确性方面与人工标注相当,同时大幅提高了零售视频注释的整体效率。该方法还能实现平均 2 倍的成本节约,通过让人工注释员审核视频数据集中少于 5%的检测帧,而自动标注其余帧,而不会影响标注质量,零售商可以显著降低运营成本。

    Conclusion

    该方法通过自动化关键帧检测流程,在零售视频注释任务中节省了大量时间和精力,对于诸如购物者旅程分析、产品互动检测和店内安全监控等多种零售应用场景具有高度价值。

    1 条回复
    zhangliang605
        1
    zhangliang605  
    OP
       177 天前
    大家比较关注哪些 arXiv 分类下的论文,回头可以加进去哈~~
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     5161 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 25ms UTC 09:11 PVG 17:11 LAX 01:11 JFK 04:11
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86