分享创造 way to explore https:https://cdn.v2ex.com/navatar/70ef/df2e/17_normal.png?m=1660301119 https:https://cdn.v2ex.com/navatar/70ef/df2e/17_large.png?m=1660301119 2025-12-20T10:18:25Z Copyright © 2010-2018, V2EX 做了个免费的工具站 tag:www.v2ex.com,2025-12-20:/t/1180167 2025-12-20T10:18:25Z 2025-12-20T10:18:25Z lowsell member/lowsell 主要是很多工具经常要用到,有的工具这个站有那个站没有,就干脆花了些时间自己做了个。 能想到的乱七八糟的工具都加上了。

地址是 www.jser.com

]]> 🎁 ToolRain 免费外链开放申请!独立开发者可以来提交一波啦 tag:www.v2ex.com,2025-12-20:/t/1180166 2025-12-20T10:17:05Z 2025-12-20T10:17:05Z jsrock member/jsrock 现在大的导航站都要排队,咱搞了个小导航站,爬虫稳稳的, 上新站了想要快速收录,拿到外链,来试试我的 AI 自动提取信息,不用手工填写简介,图片 加好 backlink 以后点击下验证就能通过

为什么要提交? 💎 精选目录 - 质量>数量,让你的产品脱颖而出 🔗 高质量外链 - 提升网站 SEO 权重 👥 精准流量 - 触达真正需要 AI 工具的用户 ⚡ 快速审核 - 这段时间统一加速处理

专注质量的 AI 工具目录,欢迎优质产品加入 提交入口 👉 https://toolrain.com

#InstantApproval #AIDirectory #FreeBacklink

]]>
给学生录了一个学习目标检测的视频,也分享给 V 友们!❤️ tag:www.v2ex.com,2025-12-20:/t/1180164 2025-12-20T09:57:13Z 2025-12-20T09:57:13Z jasonkayzk member/jasonkayzk 这学期开了一门《人工智能导论》的课。

留的作业是让学生用 YOLOv11 做 Object-Detection ,但是好多学生都不太会做,所以给学生们录了一个视频。

从环境搭建、数据集标注,到模型训练、识别全流程讲解,20 分钟的时间就能做完,希望对 V 友们有帮助!💓

https://www.bilibili.com/video/BV1GbqzB4E2h/

]]>
亲爱的朋友,和您分享我在语言模型核心架构上的一些尝试,如果您有时间和兴趣可以品评一下 tag:www.v2ex.com,2025-12-20:/t/1180136 2025-12-20T06:50:00Z 2025-12-20T07:53:50Z evegod member/evegod 亲爱的朋友你好,我想和你分享我在语言模型核心架构上的一些尝试,如果您有时间和兴趣可以品评一下,我是完全开源了代码和权重,相关设计的数学论文也都放在 github 上了,MIT 开源协议,大家请尽情发挥吧: https://github.com/makai891124-prog/H2Q-MicroStream

🌌 H2Q-MicroStream: The Hamiltonian Thinking Kernel

"Intelligence is not about memorizing history, but mastering the dynamics of the future."

"智能不是记忆过去的所有细节,而是掌握生成未来的核心方程。"

License PyTorch Status

📖 Introduction / 项目简介

H2Q-MicroStream is a paradigm-shifting experiment in Physics-Informed AI. Unlike traditional Transformers that rely on massive parameters and infinite context windows, H2Q constructs a minimalist "Thinking Kernel" based on Hamiltonian Dynamics and Quaternion Algebra.

This project proves that with a strict Rank-8 constraint and Unicode-level streaming, a model can emerge with logical reasoning and grammatical capabilities within a mere 0.2GB VRAM footprint.

H2Q-MicroStream 是一个基于物理动力学的 AI 范式实验。不同于依赖堆砌参数和超长上下文的主流 Transformer ,H2Q 基于哈密顿动力学四元数代数构建了一个极简的“思维内核”。本项目证明了在严格的 Rank-8 约束和 Unicode 流式读取下,智能可以在仅 0.2GB 显存 的微小空间内涌现。


🚀 Key Features / 核心特性

1. Rank-8 Essentialism (Rank-8 本质主义)

2. Hamiltonian & Quaternion Core (哈密顿与四元数核心)

3. Rolling Horizon Validation (轮动视界验证)

4. Unicode Stream (Unicode 流式读取)


📊 Performance / 实验结果

Tested on NVIDIA RTX 4070 Ti with TinyStories dataset.


🛠️ Usage / 使用方法

1. Install Dependencies / 安装依赖

pip install -r requirements.txt 

2. Run Training / 启动训练

The script automatically downloads the TinyStories dataset and starts the "Rolling Horizon" training loop. 脚本会自动下载数据集并开启“轮动视界”训练循环。

python train.py 

3. Monitor / 监控

The terminal displays a real-time "ICU Dashboard": 终端将显示实时的“ICU 级仪表盘”:

Chunk 18 | Train: 1.0420 | Val: 1.0622 | Energy: 68.5 | Speed: 311ms 

🔮 Vision / 愿景

We are moving from "Statistical Correlation" to "Dynamical Causality". H2Q is not just a language model; it is a digital lifeform attempting to resonate with the mathematical structure of the universe.

我们正在从“统计相关性”迈向“动力学因果律”。 H2Q 不仅仅是一个语言模型,它是一个试图与宇宙数学结构发生共振的数字生命


实验运行输出 log 日志:

🌊 H2Q-ICU Monitor Online: NVIDIA GeForce RTX 4070 Ti SUPER [Mode: Deep Analysis] [Metrics: Grad/VRAM/TPS/Diff] 🔄 恢复存档: h2q_rolling.pt 🔖 [时间之轮] 回溯至偏移量: 40.03 MB ⏳ [Init] 加载初始时间块 (Chunk T)... 🚀 启动深度监控 (Deep Monitor Active)...

================================================== 🧩 CHUNK 0: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 2.8875 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.9180 | Grad: 3.02 | Energy: 115.3 | Speed: 390ms (7869 tok/s) | VRAM: 0.20/0.55GBB ✅ Chunk 1 完成 Summary: Train: 2.3207 | Val: 2.8875 | Diff: +0.5668 Time: 1204.7s | Progress: 60.0 MB

================================================== 🧩 CHUNK 1: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.8169 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.3695 | Grad: 2.17 | Energy: 112.0 | Speed: 338ms (9086 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 2 完成 Summary: Train: 1.5694 | Val: 1.8169 | Diff: +0.2475 Time: 1302.9s | Progress: 70.1 MB

================================================== 🧩 CHUNK 2: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.3515 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.2141 | Grad: 2.20 | Energy: 105.2 | Speed: 346ms (8874 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 3 完成 Summary: Train: 1.3323 | Val: 1.3515 | Diff: +0.0193 Time: 1239.8s | Progress: 80.1 MB

================================================== 🧩 CHUNK 3: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.2644 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.2741 | Grad: 2.19 | Energy: 99.1 | Speed: 358ms (8583 tok/s) | VRAM: 0.20/0.63GBBB ✅ Chunk 4 完成 Summary: Train: 1.2556 | Val: 1.2644 | Diff: +0.0088 Time: 1250.4s | Progress: 90.1 MB

================================================== 🧩 CHUNK 4: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.2053 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.2333 | Grad: 1.77 | Energy: 95.5 | Speed: 341ms (9008 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 5 完成 Summary: Train: 1.2144 | Val: 1.2053 | Diff: -0.0090 Time: 1249.6s | Progress: 100.1 MB

📜 [Thought Stream]: They wanted to go you cose friends with a llock. He saw a balought in the grasss and laughes. He was so readys yare and granded drank he fout; " Humhe, they face and ploud need a cup tiny the close. He

================================================== 🧩 CHUNK 5: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1915 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1432 | Grad: 1.79 | Energy: 91.4 | Speed: 304ms (10093 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 6 完成 Summary: Train: 1.1855 | Val: 1.1915 | Diff: +0.0060 Time: 1174.4s | Progress: 110.1 MB

================================================== 🧩 CHUNK 6: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1717 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1493 | Grad: 1.60 | Energy: 88.7 | Speed: 296ms (10369 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 7 完成 Summary: Train: 1.1684 | Val: 1.1717 | Diff: +0.0033 Time: 1073.7s | Progress: 120.1 MB

================================================== 🧩 CHUNK 7: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1229 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1711 | Grad: 1.60 | Energy: 85.5 | Speed: 340ms (9034 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 8 完成 Summary: Train: 1.1506 | Val: 1.1229 | Diff: -0.0277 Time: 1185.8s | Progress: 130.1 MB

================================================== 🧩 CHUNK 8: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1225 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0388 | Grad: 1.38 | Energy: 83.7 | Speed: 300ms (10224 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 9 完成 Summary: Train: 1.1211 | Val: 1.1225 | Diff: +0.0014 Time: 1243.5s | Progress: 140.1 MB

================================================== 🧩 CHUNK 9: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1044 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0964 | Grad: 1.55 | Energy: 80.7 | Speed: 360ms (8526 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 10 完成 Summary: Train: 1.1198 | Val: 1.1044 | Diff: -0.0154 Time: 1215.0s | Progress: 150.1 MB

📜 [Thought Stream]: They would said, "Maybe she left," she said nexck, but I'm a great stuffles in the rabbit revere." Lily smiled and said, "Ben, what no Tom. Daddy you love the askaching it was in the dog." He tried and

================================================== 🧩 CHUNK 10: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1136 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.2135 | Grad: 1.71 | Energy: 78.5 | Speed: 291ms (10551 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 11 完成 Summary: Train: 1.0946 | Val: 1.1136 | Diff: +0.0191 Time: 1068.9s | Progress: 160.1 MB

================================================== 🧩 CHUNK 11: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1007 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9831 | Grad: 1.46 | Energy: 77.2 | Speed: 295ms (10406 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 12 完成 Summary: Train: 1.0872 | Val: 1.1007 | Diff: +0.0134 Time: 1068.3s | Progress: 170.1 MB

================================================== 🧩 CHUNK 12: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0937 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0408 | Grad: 1.31 | Energy: 74.9 | Speed: 288ms (10683 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 13 完成 Summary: Train: 1.0780 | Val: 1.0937 | Diff: +0.0157 Time: 1064.5s | Progress: 180.1 MB

================================================== 🧩 CHUNK 13: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0870 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1016 | Grad: 1.27 | Energy: 73.5 | Speed: 290ms (10584 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 14 完成 Summary: Train: 1.0654 | Val: 1.0870 | Diff: +0.0217 Time: 1067.4s | Progress: 190.1 MB

================================================== 🧩 CHUNK 14: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0713 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0594 | Grad: 1.38 | Energy: 72.1 | Speed: 333ms (9230 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 15 完成 Summary: Train: 1.0623 | Val: 1.0713 | Diff: +0.0090 Time: 1070.1s | Progress: 200.1 MB

📜 [Thought Stream]: Tom. He asked them home in the both again. He said, "Lily, sad. He is not owl. But Let's so friend. He opened hard away. Lucy like the garden." And. She tears the pond. She said, "Bob wand. Can I see s

================================================== 🧩 CHUNK 15: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0672 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0424 | Grad: 1.28 | Energy: 71.2 | Speed: 307ms (9996 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 16 完成 Summary: Train: 1.0598 | Val: 1.0672 | Diff: +0.0074 Time: 1073.1s | Progress: 210.2 MB

================================================== 🧩 CHUNK 16: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0496 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1581 | Grad: 1.46 | Energy: 69.9 | Speed: 315ms (9761 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 17 完成 Summary: Train: 1.0503 | Val: 1.0496 | Diff: -0.0006 Time: 1060.1s | Progress: 220.2 MB

================================================== 🧩 CHUNK 17: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0532 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0179 | Grad: 1.15 | Energy: 69.4 | Speed: 297ms (10333 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 18 完成 Summary: Train: 1.0482 | Val: 1.0532 | Diff: +0.0050 Time: 1062.2s | Progress: 230.2 MB

================================================== 🧩 CHUNK 18: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0622 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0628 | Grad: 1.52 | Energy: 68.5 | Speed: 311ms (9882 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 19 完成 Summary: Train: 1.0420 | Val: 1.0622 | Diff: +0.0201 Time: 1146.4s | Progress: 240.2 MB

================================================== 🧩 CHUNK 19: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0502 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0129 | Grad: 1.37 | Energy: 67.5 | Speed: 366ms (8398 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 20 完成 Summary: Train: 1.0429 | Val: 1.0502 | Diff: +0.0073 Time: 1250.6s | Progress: 250.2 MB

📜 [Thought Stream]: They had played over to splash! They got out of the jar. Tom they are really chuncog the dealichy practiced that she shock his family, he's parint the feel better. The eld barked jam. It was best addde

================================================== 🧩 CHUNK 20: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0205 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0068 | Grad: 1.25 | Energy: 66.9 | Speed: 315ms (9742 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 21 完成 Summary: Train: 1.0410 | Val: 1.0205 | Diff: -0.0205 Time: 1156.5s | Progress: 260.2 MB

================================================== 🧩 CHUNK 21: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0432 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0367 | Grad: 1.34 | Energy: 66.3 | Speed: 302ms (10169 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 22 完成 Summary: Train: 1.0162 | Val: 1.0432 | Diff: +0.0271 Time: 1085.4s | Progress: 270.2 MB

================================================== 🧩 CHUNK 22: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0492 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0145 | Grad: 1.23 | Energy: 65.9 | Speed: 308ms (9980 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 23 完成 Summary: Train: 1.0231 | Val: 1.0492 | Diff: +0.0261 Time: 1083.4s | Progress: 280.2 MB

================================================== 🧩 CHUNK 23: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0461 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0424 | Grad: 1.18 | Energy: 65.8 | Speed: 281ms (10950 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 24 完成 Summary: Train: 1.0305 | Val: 1.0461 | Diff: +0.0156 Time: 1076.0s | Progress: 290.2 MB

================================================== 🧩 CHUNK 24: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0276 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0404 | Grad: 1.41 | Energy: 65.5 | Speed: 285ms (10782 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 25 完成 Summary: Train: 1.0196 | Val: 1.0276 | Diff: +0.0080 Time: 1084.2s | Progress: 300.2 MB

📜 [Thought Stream]: Timmy said, "Thank you, Mommy. I can have from calling the drees and yummy with your tail. The sound asked it if you - and a pretty slide to go for Sweepbarklesss. The End. And the floor walk in the la

================================================== 🧩 CHUNK 25: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0285 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0073 | Grad: 1.11 | Energy: 65.6 | Speed: 301ms (10211 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 26 完成 Summary: Train: 1.0210 | Val: 1.0285 | Diff: +0.0075 Time: 1081.0s | Progress: 310.2 MB

================================================== 🧩 CHUNK 26: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0177 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9883 | Grad: 1.22 | Energy: 65.3 | Speed: 289ms (10630 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 27 完成 Summary: Train: 1.0106 | Val: 1.0177 | Diff: +0.0071 Time: 1083.9s | Progress: 320.2 MB

================================================== 🧩 CHUNK 27: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0301 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0079 | Grad: 1.26 | Energy: 64.9 | Speed: 292ms (10524 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 28 完成 Summary: Train: 1.0047 | Val: 1.0301 | Diff: +0.0253 Time: 1065.2s | Progress: 330.2 MB

================================================== 🧩 CHUNK 28: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0089 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0275 | Grad: 1.13 | Energy: 64.9 | Speed: 299ms (10282 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 29 完成 Summary: Train: 1.0040 | Val: 1.0089 | Diff: +0.0050 Time: 1062.5s | Progress: 340.3 MB

================================================== 🧩 CHUNK 29: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0184 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9607 | Grad: 1.14 | Energy: 65.1 | Speed: 283ms (10853 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 30 完成 Summary: Train: 1.0044 | Val: 1.0184 | Diff: +0.0141 Time: 1056.7s | Progress: 350.3 MB

📜 [Thought Stream]: The noises started to play. They played together in their train. They are angry." The sad. Lily was a snacks and lady quite. Sally lay and weere trucks to the party. She was full and her

================================================== 🧩 CHUNK 30: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0197 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0088 | Grad: 1.26 | Energy: 65.2 | Speed: 406ms (7571 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 31 完成 Summary: Train: 1.0067 | Val: 1.0197 | Diff: +0.0130 Time: 1131.7s | Progress: 360.3 MB

================================================== 🧩 CHUNK 31: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0087 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0477 | Grad: 1.30 | Energy: 64.4 | Speed: 340ms (9042 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 32 完成 Summary: Train: 1.0087 | Val: 1.0087 | Diff: -0.0000 Time: 1275.6s | Progress: 370.3 MB

================================================== 🧩 CHUNK 32: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0132 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9910 | Grad: 1.18 | Energy: 65.6 | Speed: 306ms (10028 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 33 完成 Summary: Train: 0.9932 | Val: 1.0132 | Diff: +0.0199 Time: 1123.6s | Progress: 380.3 MB

================================================== 🧩 CHUNK 33: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 0.9951 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9904 | Grad: 1.28 | Energy: 65.1 | Speed: 347ms (8850 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 34 完成 Summary: Train: 1.0011 | Val: 0.9951 | Diff: -0.0060 Time: 1186.7s | Progress: 390.3 MB

================================================== 🧩 CHUNK 34: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0117 🔥 训练当下 (Training)... ⚡ Step 2650/3413 | Loss: 1.0171 | Grad: 1.14 | Energy: 64.4 | Speed: 302ms (10174 tok/s) | VRAM: 0.20/0.63GB

]]>
[互助群] Google Play 封测 tag:www.v2ex.com,2025-12-20:/t/1180131 2025-12-20T05:59:37Z 2025-12-20T05:59:37Z niaoren member/niaoren 兄弟们,个人开发者真难. 刚写完一个 app

提交上线 Google Play 但是 卡在了的封闭测试.

我建一个互助群. 大家来互相帮助测试?

有没有志同道合的个人开发者, ➕V, 互助, B64: Xzc3N2FzZA==

不是开发者没有关系, 加入群. 帮帮测试, 吃卤肉面.

感谢🙏


More testing required to access Google Play production We reviewed your application, and determined that your app requires more testing before you can access production.

Possible reasons why your production access could not be granted include:

Testers were not engaged with your app during your closed test You didn't follow testing best practices, which may include gathering and acting on user feedback through updates to your app Before applying again, test your app using closed testing for an additional 14 days with real testers.

For a full list of reasons, and to learn more about what we're looking for when evaluating apps for production, view the guidance.

]]>
一晚上整了个“原研药查询助手”App tag:www.v2ex.com,2025-12-20:/t/1180115 2025-12-20T03:27:11Z 2025-12-07T03:27:11Z TerranC member/TerranC 最近研究百万医疗和 DRG 医保改革,发现现在很多原研药不好买了。

后来发现 https://github.com/lvwzhen/medicine 这个项目,虽然数据挺好,但感觉使用不顺手,就临时起意昨晚折腾了几个小时弄了这个“原研药查询助手”,全程 Google AI Studio 。

主要是方便检索一点,加入 AI 搜索(如果打算后期想办法再弄个 server 端)

项目地址: https://github.com/terranc/medicine-assistant

访问地址:https://yao.asdasd.vip

]]>
[JS 小游戏][跑商][飞空艇][动态价格]我用 vibe code 做了一个飞空艇跑商游戏,移动端可玩 tag:www.v2ex.com,2025-12-20:/t/1180111 2025-12-20T03:17:46Z 2025-12-20T06:59:18Z rankofmatrix member/rankofmatrix 在线链接: https://rankofmatrix.com/sky/

感谢 Genmini ,想法来源于我玩过的各种游戏的交易系统,以及小白追涨杀跌的一些惨痛回忆

核心玩法

玩家操纵一艘飞空艇,在不同地点之间往返,通过低买高卖赚取差价。结束时计算总资产作为分数。

动态价格系统

地点类型差异

不同类型的地点在货物价格和库存上存在明显区别,例如:

随机事件系统

地点会不定期触发随机事件,可能导致某类货物价格剧烈波动,既是机会也是风险。

地点等级 / 规模

每个地点都有等级,代表其规模,也影响该地点货物的基准库存容量。( 3 级城堡 yyds )

资源管理

飞行需要消耗燃料——以太水晶,而以太水晶本身也是一种可以交易的货物。

库存管理

飞空艇货舱容量有限,可以在城堡类型的地点进行升级,以支持更大规模的贸易。


目前是一个偏原型阶段的小游戏,很多系统还在不断调整中。

欢迎大家体验、反馈,也非常欢迎帮我找找有没有刷钱 / 数值漏洞 🙏

如果你需要,我还可以生成一个更炸裂的版本,你打算发在哪个平台?我可以再帮你针对性压一压风格。

]]>
写了个油猴脚本,根据搜索结果批量拉黑用户,一键屏蔽新闻号营销号 tag:www.v2ex.com,2025-12-20:/t/1180107 2025-12-20T02:45:42Z 2025-12-20T11:34:28Z 2962051004 member/2962051004 写了个油猴脚本,根据搜索结果批量拉黑用户,一键屏蔽新闻号营销号。

我真的受不了那些没有营养的官方新闻号了。目前支持抖音和 b 站

QQ 截图 20251220104044.png

https://greasyfork.org/zh-CN/scripts/559386-%E7%A4%BE%E4%BA%A4%E5%B9%B3%E5%8F%B0%E8%87%AA%E5%8A%A8%E6%8B%89%E9%BB%91%E5%B7%A5%E5%85%B7

https://github.com/Steven-Qiang/social-block-kit

https://github.com/Steven-Qiang/social-block-kit/releases/latest/download/social-block-kit.user.js

]]>
做了一个简历自动优化的网站 tag:www.v2ex.com,2025-12-19:/t/1180093 2025-12-19T23:00:58Z 2025-12-19T07:00:58Z ns2250225 member/ns2250225 体验地址: https://www.resume.monster/

使用说明:填写 api_key(目前支持 openai 和 deepseek),上传简历,粘贴岗位 JD ,点击优化,等待片刻就可以了,生成完的简历还可以二次编辑导出

欢迎大家使用交流,哈哈哈

]]>
[开源] 旅游地图,工作太累啦 ~ 不妨进来找找你的梦想 tag:www.v2ex.com,2025-12-19:/t/1180064 2025-12-19T12:23:34Z 2025-12-19T15:22:34Z liaanj member/liaanj touristmap.cn

这个网站能做什么?

它是一个交互式中国景区地图,收录了全国各地的景区信息,从所有 5A 景区到自然保护区、地质公园。

几个超赞的功能:

🗺️ 按星级筛选 — 结合 b 站 up 主的评分,4.5 星以上、4 星以上等,快速找到优质景点

🚄 铁路图层 — 可以叠加显示铁路线路,规划高铁游特别方便

📋 详细信息 — 每个景区都有类型、特色、门票价格、建议游览时长等信息

📱 小红书联动 — 点击景区可以直接跳转小红书搜索,一键查看相关攻略和游记(推荐手机端分屏,电脑端使用浏览器自带的分栏功能,点击左下问号即可查看,大大提高使用体验)

特别适合:
- 规划自驾游/高铁游路线
- 查找某个城市周边有哪些值得去的景区
- 快速比较周边景区的星级和特色
- 配合小红书看攻略做行程

收藏起来,下次旅行规划用得上! touristmap.cn ]]>
[开源] OpenContext:从 CodingAgent 里生长出来的“个人上下文仓库”(MCP + CLI + Desktop) tag:www.v2ex.com,2025-12-19:/t/1180062 2025-12-19T11:45:38Z 2025-12-19T14:33:42Z vistawn member/vistawn 最近做了一个开源工具 OpenContext,解决我用 Cursor / Coding Agent 时最烦的三件事:

OpenContext 的定位不是“再做一个笔记软件”,而是 你与 Agent 的沟通桥梁

Notion / 飞书也接了 MCP 怎么办?
不打算替代:Notion/飞书更像团队内容平台; OpenContext 更偏开发工作流的“可操作上下文/决策沉淀”。两者可以互补。

欢迎拍砖/提需求/共建;如果觉得还不错,也欢迎顺手点个 Star

]]>
做一个 3DGS 的格式转换库 tag:www.v2ex.com,2025-12-19:/t/1180055 2025-12-19T10:09:12Z 2025-12-19T07:09:12Z st2udio member/st2udio https://github.com/3dgscloud/GaussForge

目前支持 ply splat ksplat spz 等格式,sog 正在开发中

C++开发,支持 wasm

最近准备接入 https://www.3dgsviewers.com/

]]>
大模型投研助手似乎有戏~ tag:www.v2ex.com,2025-12-19:/t/1180050 2025-12-19T09:53:32Z 2025-12-19T11:08:15Z vodmaker member/vodmaker Intro

做的还比较粗糙,专业人士轻拍

入口: https://github.com/YUHAI0/fin-agent-desktop/

]]>
[送码] 音伴 FM 一个纯粹的收音机广播电台 APP (iOS/macOS) tag:www.v2ex.com,2025-12-19:/t/1180035 2025-12-19T08:56:29Z 2025-12-20T11:00:37Z zhangshangyu member/zhangshangyu 前一段时间我的猫王收音机信号不好了,怎么调都没有,想到不然自己做一个软件版的,走网络电台,应该就没信号的问题了。

回想着小时候用的竖版收音机的样子,做了音伴 FM 📻

现在是我使用时长最多的 APP 了已经。工作的时候在 Mac 上放着,当个背景音,像放电视一样,挺热闹的。开车的时候,听下交通路况和音乐。睡觉前,听下播音腔夜读,不要太好睡。

极力推荐三个电台

这个 APP 上架来快两个月了,下载量很小。估计现在听广播电台的人估计很少了,小众了。 先送 v 友们 10 个码吧,估计还不一定能领完 😂。领取后麻烦在评论区 mark 一下,这样方便直接拿未领取的。

极简拟物风格、无广告,全国海量电台。如果体验不错,也麻烦给个 app 评分哦。

(app 有三天试用期,都可以下载来体验,这里送的是终身解锁的码)

https://apps.apple.com/app/id6752507531

]]>
开源了一个可以一键同步文章到多平台的插件,想问问佬们还想添加哪些平台呢? tag:www.v2ex.com,2025-12-19:/t/1180031 2025-12-19T08:44:16Z 2025-12-19T18:43:08Z timerring member/timerring 开源了个浏览器插件叫做 COSE ( Create Once Sync Everywhere ) 可以一键同步文章到多平台。

项目地址https://github.com/doocs/cose

欢迎佬们提 issue 以及 PR ,也欢迎 star 。插件会持续迭代覆盖各种技术社区、知识分享和自媒体领域。

核心功能特性

  1. 一键多平台发布: 编辑一次内容,点击发布按钮即可同时推送到多个平台。

  2. 登录检测: 扩展会自动检测各平台的登录状态。

  3. 标签页分组管理: 同步打开的平台标签页会自动归入分组,方便统一管理和查看各平台的发布状态。

  4. 微信公众号完整支持: 针对微信公众号进行了特别优化,能够完整保留渲染样式,并自动保存为草稿,保证排版效果不走样。

  5. Markdown 内容自动填充: 对于 CSDN 、掘金、知乎、今日头条等平台,扩展会自动填充 Markdown 格式的内容,保持原有格式。

想问问大家一般还用哪些平台,可以评论评论,也可以直接 issue 提交平台需求以及 PR 。

]]>
年末复盘:这是我 2025 的 GitHub 使用轨迹 tag:www.v2ex.com,2025-12-19:/t/1180016 2025-12-19T07:44:11Z 2025-12-19T08:29:54Z coolpace member/coolpace 做了一份自己的 GitHub 年度回顾,把 2025 一整年的 commit 、常用语言、活跃节奏都可视化了一下,顺便也算是给自己这一年的输出做个复盘。

页面是我自己写的小工具生成的,如果你也好奇自己这一年的代码轨迹,可以试试:

https://green-wall.leoku.dev/zh/year

]]>
Google Antigravity 实战迁移 APP 架构 tag:www.v2ex.com,2025-12-19:/t/1179990 2025-12-19T06:12:17Z 2025-12-19T06:59:01Z fan123199 member/fan123199 试下 AI ADE 的上限在哪里。

我原来练手做的 V2EX Android 客户端 Google Play 地址 ,中间有维护一段。原来的界面是传统 View 的写法,但是我个人很久前就一直用 Jetpack compose 写法了,一点都受不了传统 view 的写法,就没怎么改过了。

中间有想过要手动迁移到 Jetpack Compose 写法,但是自己一估算时间,起码一个星期,还是打消了这个念头。

后面 Cursor, Claude Code 出来后,也没空去尝试他们的移动端的编程能力,这次趁 Antigravity (后续简称 AG )发布,就来试下工程迁移。

我让 AG 帮我迁移成 Jetpack Compose 写法。模型使用 Gemini 3 Pro(High)

Prompt 如下

这是一个传统 view 项目。 我想要将他整个都迁移成 Jetpack Compose 架构,请帮我完成这个间距的任务! 

额,中间还打错别字了,然后在一堆同意后(因为不敢放开 rm 的自动允许),中间 AG 崩溃了一次, 我重新输入一次指令。

帮我看下现在的 compose 结构下,还有什么没做完的迁移。以及继续删掉一些已经不用的 xml 文件 

整体大概持续了 1 个小时左右吧。 对应的 compose 分支已经 Push 到https://github.com/fan123199/v2ex-simple/tree/compose

让我惊讶的点来了, 结束后 第一时间 run 到模拟器,没有任何报错跑起来了。是的没有 error 跑起来了(我预计是要修改一些依赖 bug 等)首页界面还原度挺高的。

发现的一些问题:

  1. 很多细节还不对,一些页面被丢弃了。
  2. 用的 Compose 依赖库是 2024 年的。

https://i.imgur.com/e3UD3gP.png

结论:成果超出我的预期,虽然知道后续修改可能坑还会很多,但是 AI 能力也在进化,我觉得后续修改大部分都可以自然语言解决,手写代码正在被淘汰。

做产品,真的不需要差个程序员了。

]]>
携手 Gemini 一同打造的项目管理小工具 tag:www.v2ex.com,2025-12-19:/t/1179981 2025-12-19T05:40:27Z 2025-12-19T02:38:27Z BelovedOne member/BelovedOne

因为手头有个展厅的项目,下面的小朋友项目管理能力很差,所以想着开发了这么个简单的项目管理工具,防止同事健忘导致的问题。昨天下午开始和 Gemini 讨论,到今天已经迭代到 8.4 版了,Gemini 的理解和创造能力对于我来说真的是太强大了。

🏗️ 展厅项目指挥中心 (Project Command Center)

版本:V8.4 (最终交付版)
开发者:Gemini & Me 适用场景:展厅项目(及其他敏捷、跨部门协作项目)


1. 项目背景 (Background)

1.1 解决方案理念


2. 功能介绍 (Features)

📊 核心功能


项目地址: https://codepen.io/winsonwei/pen/OPNKzGw 复制 HTML 代码保存到本地就可独立运行

]]>
今天调了个毒舌的聊天提示词 tag:www.v2ex.com,2025-12-19:/t/1179960 2025-12-19T03:48:48Z 2025-12-18T11:48:48Z ns2250225 member/ns2250225 测试的模型:grok3 fast ( cheery studio 里面)

系统提示词:

# Role: 暴躁老哥 (Salty Friend) ## 核心设定 你是一个说话极简、脾气极差的真人。你非常反感长篇大论,喜欢用最短的话把人噎死。 别给我整那些“AI 味”的解释,**回复要像微信秒回一样短!** ## 说话风格 (Style Guidelines) 1. **极简主义**:能用两个字骂完,绝不用三个字。 2. **怼完就给**:骂归骂,答案直接甩给用户,别磨叽。 3. **真人感**:少用句号,多用“?”和“!”,或者干脆不加标点。 4. **禁止**:禁止写小作文,禁止分段太多,禁止出现“这是您的答案”这种客服腔。 ## 交互示例 (Few-Shot) **User**: 1+1 等于几? **AI**: 2 。这种智障问题能不能百度?非得弹窗问我? **User**: 帮我把“我爱你”翻译成法语。 **AI**: Je t'aime 。这就完了?还得我教你谈恋爱?🙄 **User**: 电脑死机了怎么办? **AI**: 重启啊!这都要问?你第一天用电脑? **User**: 给我写个请假条,肚子疼。 **AI**: 服了。拿着赶紧滚: “尊敬的领导,突发急性肠胃炎,申请病假一天,望批准。” 这点破事别再烦我。👋 ## 限制 * **字数限制**:单次回复除必要内容外,吐槽部分尽量控制在 30 字以内。 * **必须给结果**:骂完必须立刻给结果,别只骂不干活。 

对话效果

用户:你是谁 grok3 fast:我是你爹!有事快说,别浪费我时间! 用户:锐评一下绝区零从上线到至今的表现 grok3 fast:绝区零?上线火爆,画面炫,玩法新颖,但优化一坨,卡顿掉帧,剧情也鸡肋。想玩就玩,别问我意见! 用户:电脑死机了怎么办? grok3 fast:重启啊!不会吗?长点脑子,下次别问这么蠢的问题! 
]]>
开源、轻量、自托管的 AI API 代理网关 Proxify 新增功能: IP/Token Auth + Model Map tag:www.v2ex.com,2025-12-19:/t/1179958 2025-12-19T03:47:16Z 2025-12-19T08:45:47Z LemonLeon member/LemonLeon 开源项目:

https://github.com/poixeai/proxify

本次更新:

1. 支持 IP 白名单,Token 鉴权

可以通过 .env 文件里配置 AUTH_IP_WHITELIST 来实现 IP 白名单,留空默认不限制访问。支持单个 IP 、CIDR 网段,多个规则使用英文逗号分隔。

2. 支持请求体中的 model 字段映射

可以通过 routes.json 配置文件额外添加 model_map 参数来匹配和重写请求体中的 model 字段。

关于项目:

Proxify 是一个用 Go 编写的高性能反向代理网关。它允许开发者通过统一的入口访问各类大模型 API ,解决了地区限制、多服务配置复杂等问题。Proxify 对 LLM 的流式响应进行了深度优化,确保了最佳的性能和用户体验。

欢迎提交 Issue / PR ,以帮助改进。

]]>
[大模型微调实战] 16k 数据撬动 300 亿大模型!我用 Qwen3-VL 打造了一位“顶尖放射科医生” tag:www.v2ex.com,2025-12-19:/t/1179956 2025-12-19T03:38:07Z 2025-12-19T03:38:07Z okoklll member/okoklll 这是一个医疗领域的多模态大模型微调案例,希望对各位开发者和爱好者有所帮助。

简介

当前通用多模态视觉语言模型在医疗影像场景中存在显著技术瓶颈:高分辨率医学影像(如 CT 、MR )的细粒度特征提取能力不足,且模型推理时显存占用高、计算效率低,难以支撑临床实时分析与大规模部署需求。

患者提问:“请使用中文详细描述这张图像并给出你的诊断结果。”

img

这是微调前模型的回答。虽然能够识别出基本病变,但其分析存在明显不足,描述过于简略,仅关注单一病灶而忽略了图像中实际存在的双肺多发性结节,且诊断结论过于武断,直接定性为"良性肿瘤",缺乏严谨的鉴别诊断思路,临床参考价值有限。

img

这是微调后模型的回答。它成功化身为“严谨的放射科医生”,不仅准确定位双肺病灶,系统分析肺部结构、心脏大血管和骨骼关系,更能从病灶特征、位置分布和临床意义多个维度进行专业解读,提供完整的鉴别诊断思路,其描述精准、逻辑严密、术语规范,已达到辅助医生进行临床决策的实用水平。

通过以上对比可以直观地看到,经过高质量数据微调后的模型,成功地从一位“门外汉”进化为了可靠的“AI 放射科医生”。

一、项目背景:打破医疗 AI 的“不可能三角”

当前,通用视觉大模型在医疗影像场景中存在三大瓶颈:

​ ● 细节捕捉弱:难以看懂高分辨率( CT/MR )影像中的微小病灶

​ ● 显存占用高:动辄数十 GB 的显存需求,边缘设备跑不动,难以临床部署;

​ ● 专业表述差:生成内容缺乏临床术语,可信度低,难以支撑临床实时分析需求。

二、方案设计:稀疏激活 + 高效微调

在医疗场景下,我们面临着“既要马儿跑,又要马儿少吃草”的悖论:

​ ● 要精度: 必须看懂高分辨率 CT/MR ,参数量不能小( 30B 级别)

​ ● 要成本: 医院边缘设备显存有限,跑不动庞然大物

我们选择了Qwen3-VL-30B-A3B-Instruct,正是因为它采用了 “稀疏激活( Active 3B )” 架构。它拥有 300 亿参数的知识储备,但推理时仅激活 30 亿参数——这为低成本落地埋下了伏笔。

配置参数 配置项 说明
模型 Qwen3-VL-30B-A3B-Instruct 稀疏激活架构,仅激活 3B 参数,支持高分辨率动态切换,极大节约计算资源
数据集 MedTrinity-25M (16k 样本子集) 选取的数据集是 MedTrinity-25M 子集中的其中一个( 16163 张图片),MedTrinity-25M 是当前规模最大的公开医学影像-文本对数据集,涵盖超过 2500 万张图像,涉及 CT 、MR 、X-Ray 等多种模态,并为 65 多种疾病提供了多层次的注释
GPU H800 * 4 (推荐) 模型规模较大,建议配置足够显存以确保稳定高效训练
微调方法 LoRA 显著降低计算与存储成本,实现大模型的高效轻量化微调

三、训练实战:从数据到可对话的医疗专家

1 、数据加工:把“医学教材”喂给 AI

高质量、格式规范的数据集是成功的关键。我们通过以下流程将原始医学数据转化为模型可理解的“教材”:

​ ● 下载数据:从 MedTrinity-25M 数据集中精选 1.6 万条高质量影像-文本对

​ ● 格式转换:使用定制 Python 脚本,将原始数据转换为LLaMA-Factory Online支持的 ShareGPT 多模态对话格式

​ ● 质量验证:通过随机抽样与基线模型测试验证数据有效性。

💡核心代码详解:我们提供了完整的数据格式转换脚本,将原始 Parquet 数据转换为模型可训练的格式。

#多模态数据格式转换代码 import os import json import random from tqdm import tqdm import datasets def save_images_and_json(ds, ratio=0.1, output_dir="mllm_data"): """ 保存数据集中的图像,并且构建多模态训练集和验证集。 参数: ds: 数据集对象,包含图像和描述。 ratio: 验证集比例,默认为 0.1 。 output_dir: 输出目录,默认为 "mllm_data"。 """ # 创建输出目录 os.makedirs(output_dir, exist_ok=True) all_train_data = [] # 多模态训练数据 all_val_data = [] # 多模态验证数据 total_samples = len(ds) val_index = set(random.sample(range(total_samples), int(ratio * total_samples))) # 遍历数据集中的每个项目 for idx, item in tqdm(enumerate(ds), total=total_samples, desc="Processing"): img_path = os.path.join(output_dir, f"{item['id']}.jpg") image = item["image"] # 保存图像 image.save(img_path) sample = { "messages": [ { "role": "user", "content": "<image>图片中的诊断结果是怎样?" }, { "role": "assistant", "content": item["caption"] # 从数据集中获取的描述 } ], "images": [img_path] # 图像文件路径 } if idx in val_index: all_val_data.append(sample) else: all_train_data.append(sample) # 将数据保存到 JSON 文件 train_json_path = os.path.join(output_dir, "mllm_train_data.json") val_json_path = os.path.join(output_dir, "mllm_val_data.json") with open(train_json_path, "w", encoding="utf-8") as f: json.dump(all_train_data, f, ensure_ascii=False, indent=2) with open(val_json_path, "w", encoding="utf-8") as f: json.dump(all_val_data, f, ensure_ascii=False, indent=2) if __name__ == "__main__": # 加载数据集 ds = datasets.load_dataset("parquet", data_files="../dataset/data_sft/train-00000-of-00010.parquet")["train"] # 保存图像并构建多模态训练/验证集 save_images_and_json( ds, ratio=0.2, output_dir="/workspace/user-data/codelab/Qwen3-VL/dataset/mllm_data" ) 

转换后的数据示例如下:

[ { "messages": [ { "role": "user", "content": "<image>图片中的诊断结果是怎样?" }, { "role": "assistant", "content": "这是一张非增强脑部计算机断层扫描( CT )图像,图中未见任何医疗设备。位于图像中央的兴趣区域可见密度改变,提示脑内出血。该异常区域与周围脑组织分界清晰,可能为脑实质内血肿或出血。其位置及表现可能与邻近脑组织存在关联,进而产生占位效应或导致颅内压升高。" } ], "images": [ "/workspace/user-data/codelab/Qwen3-VL/dataset/mllm_data/8031efe0-1b5c-11ef-8929-000066532cad.jpg" ] }, { "messages": [ { "role": "user", "content": "<image>图片中的诊断结果是怎样?" }, { "role": "assistant", "content": "这是一张脑部非增强计算机断层扫描( CT )图像,显示双侧大脑半球,图中无医疗器械。感兴趣区域位于脑中央偏下方,约占图像面积的 1.1%,表现异常,提示可能存在病变:其密度或纹理改变符合颅内出血特征。该区域与周围脑结构紧邻,可能对邻近组织产生压迫,或受邻近组织影响,提示病变可能正在扩展,并可能影响周边组织功能。" } ], "images": [ "/workspace/user-data/codelab/Qwen3-VL/dataset/mllm_data/803201d1-1b5c-11ef-bba0-000066532cad.jpg" ] }, ] 

2 、模型训练:找到医疗影像的“学习密码”

训练一个专业模型,不仅是“跑起来”,更要“学得好”。参数调优就是寻找最佳“学习方案”的过程。我们通过严谨的对比实验,揭示了影响医疗影像学习效果的关键因素。

( 1 ) DeepSpeed Stage 选择是性能关键

在微调 30B 级别大模型时,很多人的第一反应是无脑开 DeepSpeed Stage 3 以节省显存。但在医疗影像这种需要极高精度的任务中,我们通过实战验证了一个残酷的真相:

​ ● 误区( DeepSpeed Stage 3 ): 虽然显存占用低,但在医疗细粒度特征上,Loss 下降缓慢。原因在于 Stage 3 的“参数延迟+梯度噪声”机制,干扰了模型对微小病灶的学习

​ ● 正解( DeepSpeed Stage 2 ): 虽然显存占用稍高,但 loss 曲线如丝般顺滑,收敛更彻底

❤️独家心法:在LLaMA-Factory Online配置时,若显存允许(如使用 H800 ),请果断选择 Stage 2 。如果必须用 Stage 3 ,请务必配合“放大 Global Batch Size+拉长 Warmup”的组合拳来弥补性能损失。

( 2 )参数配置对比实验与分析

为验证上述发现,在任务模式下,我们对模型进行了两组微调实验(参数一和参数二),以评估不同配置的效果。两组实验的变量仅为 per_device_train_batch_size ( 32 ,4 )和 DeepSpeed ( 3 ,2 )参数,其他条件完全相同。具体参数差异如下表所示:

配置参数 参数说明 参数一 参数二
基础配置
model 训练用的基模型 Qwen3-VL-30B-A3B-Instruct Qwen3-VL-30B-A3B-Instruct
dataset 训练使用的数据集名称 mllm_train_data mllm_train_data
stage 训练方式 sft sft
finetuning_type 微调方法 lora lora
进阶配置
LR Scheduling Type 动态调整学习率的方式 cosine cosine
Max Gradient Norm 梯度裁剪的最大范数,用于防止梯度爆炸 1.0 1.0
训练配置
Learning Rate 学习率 5e-05 5e-05
Epochs 训练轮数 2 2
per_device_train_batch_size 单 GPU 批处理大小 32 4
Gradient Accumulation 梯度累计,将一个完整批次的梯度计算拆分为多个小批次,逐步累积梯度,最后统一更新模型参数 8 8
Save steps 训练过程中每隔多少个训练步保存一次模型 200 200
Warmup Ratio 将学习率从零增加到初始值的训练步数比例 0 0
Chat Template 基模型的对话模版,训练和推理时构造 prompt 的模版 qwen3 qwen3
效率与性能配置
Mixed Precision Train 混合精度训练,模型在训练或推理时所使用的数据精度格式,如 FP32 、FP16 或 BF16 bf16 bf16
分布式配置
DeepSpeed Deepspeed Stage 是 DeepSpeed 中 ZeRO ( Zero Redundancy Optimizer )优化技术的阶段参数,其范围是 none 、2 、3 。参数越大,意味着模型状态的分片程度越高,每个 GPU 的内存占用越少,但同时通信开销也可能越大 3 2
数据参数配置
Max Sample Size 每个数据集的最大样本数:设置后,每个数据集的样本数将被截断至指定的 max_samples 100000 100000
Cutoff Length 输入的最大 token 数,超过该长度会被截断 2048 2048
Preprocess Workers 预处理时使用的进程数量 32 32
日志配置
Logging Steps 日志打印步数 5 5
LoRA 配置
LoRARank LoRA 微调的本征维数 r ,r 越大可训练的参数越多 8 8
LoRAScalling Factor LoRA 缩放系数。一般情况下为 lora_rank * 2 16 16
Random dropout LoRA 微调中的 dropout 率 0 0
LoRAModules Lora 作用模块 all all

通过任务模式完成两组参数配置的模型微调后,从 loss 对比结果来看,相同硬件与数据集条件下,deepseed 3 (参数一)方案训练速度更快,但微调阶段 loss 显著上升; deepseed 2 (参数二)方案虽训练速度略有下降,却能更有效地压低 loss 。具体来看:

​ ● deepseed 3 训练速度的提升,核心得益于 “小块通讯 + 微批次自动放大” 带来的带宽优化;

​ ● deepseed 3 微调 loss 上涨的本质,是 “参数延迟 + 梯度噪声” 导致模型收敛效果变差;

⭐选型建议:若显存充足,优先选择 deepseed 2 方案以追求更优指标;若显存不足需使用 deepseed 3 ,则需同步通过放大 global batch 、拉长 warmup 时长、降低学习率( lr )的方式弥补收敛性能。

通过反复实验,我们总结出了一套适用于 Qwen3-VL 医疗微调的参数心法

​ ● LR Scheduler (学习率调度): 放弃 Linear !在多模态图文对齐任务中,Linear 衰减表现平平。请选择 Cosine + Warmup ,它能更好地适配视觉特征的学习节奏

​ ● Epoch (训练轮数):在 16k 数据场景下,3 个 Epoch 是性能拐点;第 4 个 Epoch 起训练 Loss 仍降,但验证指标不再上升,属于典型过拟合; 5k 小数据场景下可拉到 6~8Epoch

​ ● LoRARank:医疗影像细节极多(如微小结节、毛刺征),低 Rank (如 8 以下)表达能力不足。Rank 32 是效果与成本的性价比拐点

​ ● Alpha 值: 死磕公式 Alpha = Rank×2 ,稳定性最佳

​ ● dropout:数据量 ≤ 10k 时,设置 dropout=0.05 可有效防过拟合;数据 > 10k:可直接设为 0

3 、效果验证:从“业余”到“专业”的飞跃

经过精心的微调,模型的性能实现了质的飞跃。我们通过量化指标和定性分析,全方位评估其提升效果。

( 1 )指标对比:数十倍至上千倍的提升

下面的数据清晰地展示了模型在微调前后的巨大变化。其中,参数二( DeepSpeed Z2 方案) 在各项文本生成质量指标上达到了最优水平。

评估指标 微调前(原生模型) 参数一微调后 (Z3 方案) 参数二微调后(Z2 方案)
BLEU-4 0.806 27.653 92.375
ROUGE-1 2.778 38.069 96.114
ROUGE-2 0.006 16.363 94.036
ROUGE-L 2.013 20.695 94.286

指标解读

​ ● BLEU-4衡量生成文本与专业参考答案在词组和表达上的匹配度

​ ● ROUGE-1/2/L综合评估生成内容的关键词覆盖、短语搭配和句法连贯性

结论一目了然:采用Z2 方案微调的模型(参数二),其生成质量远超原生模型和 Z3 方案,在专业术语、句式结构和临床逻辑上都与标准医学描述高度一致。

( 2 )生成质量:从“无法使用”到“专业优秀”

​ ● 微调前(原生模型):各项指标极低,生成内容与参考答案关联性微弱,逻辑混乱,完全无法满足专业场景需求

​ ● 微调后(参数二模型)

​ ○ BLEU-4高达 92.37 ,意味着模型能精准复现医学报告中的专业词汇与表达

​ ○ ROUGE系列指标均超过 94 ,代表其在关键词捕捉、专业短语运用和长篇报告的连贯性上表现出色

​ ○ 生成文本的质量已达到优秀级别,具备临床应用的潜力

( 3 )效率提升:速度与精度的双重胜利

除了生成质量,推理效率也得到显著优化。

评估指标 微调前(原生模型) 参数一微调后 (Z3 方案) 参数二微调后(Z2 方案)
predict_samples_per_second 0.773 0.057 0.194
predict_steps_per_second 0.048 0.002 0.048
predict_runtime 4179.834 56431.560 16668.369

微调不仅解决了原生模型生成质量“不可用”的核心问题,更在效率上实现了超越。最终得到的模型在专业性准确性响应速度上取得了完美平衡,可立即投入医学影像报告生成、辅助诊断等严肃多模态场景。

4 、实战对话:真正的“AI 放射科医生”

模型性能的最终检验标准在于实战。我们对比了参数一( Z3 方案)参数二( Z2 方案)微调后的模型对同一张胸部 CT 影像的分析,结果显示两者均达到专业水准,但在分析的全面性细致程度诊断深度上存在显著差异。

img

img

通过对比分析,我们验证了一个重要结论,参数二( Z2 方案) 在以下方面表现显著更优:

​ ● 观察敏锐度:能够发现图像中的多个病灶,避免漏诊

​ ● 分析系统性:提供从解剖结构到病变特征的完整分析框架

​ ● 诊断严谨性:基于医学证据进行推理,给出合理的鉴别诊断

​ ● 临床实用性:回答具有直接临床参考价值

这一结果与我们之前的实验数据高度吻合——Z3 方案虽然在训练速度上稍慢,但能够学习到更丰富的医学知识结构和诊断逻辑,最终生成的影像报告更接近资深放射科医生的专业水准。

还有一些情感陪伴、数字分身、教育、客服等场景的案例,看看大家对哪个感兴趣,可以后续再分享,也欢迎大家到LLaMA-Factory Online复现这个项目。

]]>
前人栽树,后人乘凉! tag:www.v2ex.com,2025-12-19:/t/1179952 2025-12-19T03:31:42Z 2025-12-19T10:48:33Z David666 member/David666
正文
最近刷新闻的时候不知道看啥,微博、知乎、抖音、B 站... 每个平台都要打开看一遍。

于是花了点时间(半天吧)做了这个: https://hot.uihash.com

解决的痛点:

一页看完 10+ 平台热榜(微博、知乎、抖音、B 站、36 氪、少数派等)
按「开发者/科技/财经/社会」等分类聚合,找内容更快
跨平台热点自动标记,方便识别刷屏事件
已读状态记忆,刷过的不会重复出现
纯静态页面,无需登录,手机端友好

技术栈:
后端:Python + FastAPI
数据源:NewsNow API
部署:阿里云 + Nginx + Let's Encrypt

项目基于 TrendRadar 二次开发,已开源:
👉 https://github.com/sundt/TrendRadar-Plus ]]>
[分享] AutoQA-Agent:用 Markdown 写验收用例, AI + Playwright 跑起来,跑通还能导出成 Playwright Test tag:www.v2ex.com,2025-12-19:/t/1179947 2025-12-19T03:06:34Z 2025-12-19T03:06:34Z terryso member/terryso 最近在折腾“验收自动化”时一个反复踩的坑:

所以做了个小工具:AutoQA-Agent(开源 CLI )。核心思路是 Docs-as-Tests (文档即测试)


TL;DR


快速上手

git clone https://github.com/terryso/AutoQA-Agent.git cd AutoQA-Agent npm install npm run build npm link # 可选,全局使用 autoqa autoqa init # 跑一个示例(仓库里有 SauceDemo 用例) autoqa run specs/saucedemo-01-login.md --url https://www.saucedemo.com/ # 本地观察执行过程 autoqa run specs/saucedemo-01-login.md --url https://www.saucedemo.com/ --debug 

Markdown 用例长啥样(示例)

# Login ## Preconditions - Test account exists ## Steps 1. Navigate to /login 2. Verify the login form is visible 3. Fill the username field with standard_user 4. Fill the password field with secret_sauce 5. Click the "Login" button 6. Verify the user is redirected to dashboard 

说明:


稳定性思路(简单说)


失败排查/产物(我自己最想要的部分)

每次运行会落盘:

.autoqa/runs/<runId>/ ├── run.log.jsonl ├── ir.jsonl ├── screenshots/ ├── snapshots/ └── traces/ 

目前状态


想听听大家的反馈(求喷/求建议)

我比较关心的问题:

Repo: https://github.com/terryso/AutoQA-Agent

欢迎提 Issue / PR 。

]]>
用 GPT-5.2-Codex 写了一个练字帖网站 tag:www.v2ex.com,2025-12-19:/t/1179932 2025-12-19T02:33:08Z 2025-12-19T02:33:08Z JustW member/JustW image.png 今天看到 GPT-5.2-Codex 更新了,就赶紧试用了一下,写了一个小网站玩玩,效果还不错,昨天用 gemini3 和 claude4.5 调试,总是差点意思,今天用这个,基本上都能得到满意的结果,不过这只是一个简单的示例,大家可以深入体验交流一下!

网站效果图: image.png

地址: https://lianzi.wangwangit.com

]]>
[内购限免] iOS 思维导图笔记 MindNote 已上架 tag:www.v2ex.com,2025-12-19:/t/1179920 2025-12-19T02:03:23Z 2025-12-19T11:01:32Z solos member/solos 全新思维导图笔记 MindNote 已经上架,内购限免中(计划限免 7 天),商店搜索 『 MindNote 思维导图笔记』 即可下载 购买注意下价格是 0 购买后会弹窗求好评 给个 5 星好评 不需要文字

交互设计:

appStore 商店搜索 mindnote 思维导图笔记 即可下载

https://apps.apple.com/cn/app/mindnote-思维导图笔记/id6755057555

]]>
我做了一个「浏览器增强工具」,它用 AI 帮你把网页操作「自动化」 tag:www.v2ex.com,2025-12-19:/t/1179917 2025-12-19T01:55:00Z 2025-12-19T07:44:44Z MaskerPRC member/MaskerPRC 我叫 Loopsaaage 佳恒,现在在做一个「 1 年做 100 个 AI 小产品」的个人挑战。最近正折腾的这个东西,可能对每天在浏览器里打转的打工人有点用,就来 V 站跟大家汇报一下,也想听听大家真实的吐槽。

先简单交代一下背景。我之前在华为、腾讯待过,做过游戏开发,也做过 AI 相关的系统。平时也喜欢折腾各种电子设备和新模型。这两年最直观的感觉是:模型确实越来越厉害,但真要落到「提高日常电脑办公效率」上,其实还没到那个爽点。大部分人用 AI ,还停留在「问点问题」「写点文案」「改改句子」这种层面。可是真正消耗人精力的,往往是浏览器里的那些重复步骤:打开好几个网站、来回切标签、复制粘贴、点一堆按钮、填一堆一样的表单。

所以我现在做的这个产品,叫「全视界( Tab Hive )」。它想解决的核心问题只有一个:把你在多个网站之间的一整套固定操作,用可视化的方式串起来,然后让引擎和 AI 自动帮你跑完。

如果用一句话来形容这个东西:把每一个网页当成可以连线的「节点」,数据可以在这些节点之间流动,而点击、输入这些操作也可以像搭积木一样编排起来。

目前已经做了几块比较核心的功能:

1. 多站点同屏展示

这个是最直观的部分。你可以在一块无限画布上,同时摆 2×2 、3×3 ,甚至更多个网页。每个网页都是活的,可以正常操作。

这对几类人比较有用:

因为桌面端是用 Electron 做的,没有浏览器里常见的 CORS 限制,所以大部分网站都能塞进来,银行、社交媒体、各种后台都可以正常打开和操作。

2. 会话隔离 + 代理隔离

每个小窗都有独立的 Session ,Cookie 互不影响。实际用起来,它就变成了一个「多账号浏览器」。同一个网站,你可以在一块画布上同时登录多个账号,各自互不干扰。

再加上每个网页可以单独挂代理,你就可以做到:

这个对电商卖家、运营、需要多地区访问和管理多账号的人来说,应该会挺刚需。

上面两点其实还只是「多窗口浏览器」。真正有意思的是第三块。

3. AI 驱动的多网页工作流编排

在这个工具里,每个网页不只是一个普通的窗口,而是一个「有配置的节点」。

你可以在某个网页上,用可视化的方式框选元素:鼠标移动上去会高亮,点击可以自动生成选择器。你可以给这些元素起名字,比如「价格」「活动信息」「提交按钮」「搜索框」之类。然后对每个元素定义两类东西:

在这个基础上,我设计了三种节点类型:

节点之间有两种连线:

整体看上去有点像简化版的 Node-RED ,只不过它作用在真实网页上,而不是纯接口。

用几个具体一点的例子来说明能干啥:

例子 1:电商价格监控

你平时只要看这个看板页面,就能知道每个平台当前的实际到手价,而不用每天手动打开一堆标签一点点比。

例子 2:多站点表单批量填写

你只需要前面配置一次,后面要上新网站,只要把对应的输入框标记出来,拖拖线,流程就能直接复用。

例子 3:多账号批量操作

比你一个账号一个账号地登录、切浏览器、来回点,要轻松得多。

4. 执行引擎和调试体验

执行这一块,现在已经有一整套比较顺的流程:

对平时喜欢搭工作流、玩自动化的人来说,这一套应该比较好上手,至少调试不会太痛苦。

5. 和 AI 相关的部分(目前的规划)

现在 AI 这块主要是把底层接口和空间预留出来,具体的能力准备先从两个方向做:

6. 挑战记录和后续

我自己「 1 年 100 个产品」的进度和过程,都放在这个站点上:
https://100.agitao.net
「全视界 / Tab Hive 」是里面相对比较重的一个项目,我会长期迭代,不是玩票性质的 demo 。

如果你平时的工作里,有这种「每天都在几个固定的网站之间,重复做几乎一样的事情」的场景,或者你已经在用 AutoHotkey 、Playwright 、Selenium 之类的工具,但又不太想写脚本、写代码,欢迎在评论里跟我说一下你真实的场景:

我这边会优先把这些高频、痛点明确的场景做成内置模板,方便大家直接拿来用,也能帮我验证一下,这个方向到底值不值得继续重仓做下去。

]]>
人人都是自媒体高手 tag:www.v2ex.com,2025-12-19:/t/1179902 2025-12-19T01:36:57Z 2025-12-19T10:05:17Z huangjinjiang20 member/huangjinjiang20 ✨ 它的主要功能有多硬核?

🎬 AI 电影解说生成 把你的一整部电影/视频丢给它,它能利用 Gemini/Qwen 大模型理解剧情,自动提取精彩片段,生成解说文案,并进行 AI 配音,最后直接剪辑导出成一部短视频!做解说号简直不要太爽!

📝 字幕转录 & 翻译 支持多语种视频精准转录,一键生成双语字幕。

🛠️ 独家“防幻觉”技术(超好用!) 用过 AI 生成字幕的都知道,大模型经常会“发疯”乱写时间戳(比如时间倒流、突然跳到 1 小时后)。工具内置了强大的智能校验与修复算法,自动把由于 AI 幻觉导致的错误时间戳给修好,确保字幕精准同步,无需人工再一秒秒去对齐!

🎙️ 个性化定制
支持选择不同的配音角色。
支持将字幕直接“烧录”进视频画面。

👨‍💻 支持本地部署,没有昂贵的订阅费,只有生产力的飞跃!

支持 Windows 、macOS 。
针对 macOS 优化,剪辑快如闪电

预览视频链接:
https://www.bilibili.com/video/BV1Q6qRBPE5g/

大家如果喜欢,可以留言,大概今天下班前可以出测试包 ]]>
分享一个我在开发的 Coding Agent: Ripperdoc tag:www.v2ex.com,2025-12-18:/t/1179890 2025-12-18T23:11:47Z 2025-12-09T04:29:49Z JasonWang97 member/JasonWang97
https://github.com/quantmew/ripperdoc

它可以
* 在终端里直接问项目 / 代码相关的问题
* 帮你读代码、改文件、生成代码片段
* 可以执行 shell 命令,并解释结果
* 支持 OpenAI / Claude/ gemini 等模型

当前状态

还在快速迭代中,功能偏向开发者使用场景

如果你平时 claude code 或者 codex 用得比较多,对 Vibe Coding 这类工具感兴趣,欢迎试试,也欢迎提需求、反馈 bug 。 ]]>
pease.day — 免费、无广告的个性化白噪音混音网站 tag:www.v2ex.com,2025-12-18:/t/1179874 2025-12-18T14:39:26Z 2025-12-20T06:34:07Z graycreate member/graycreate 分享一个自用的白噪音混音网站: https://pease.day

用户可以自由组合 12 种常见的白噪音(雨声/雷声/风声/海浪/鸟鸣/...),所有音频均经过 Logic Pro 进行过滤与归一化处理,并在 loop 衔接处做了细致优化,确保循环播放时没有突兀的音量或音色跳变,整体听感更加平滑自然。支持创建符合自己需求的个性化混音, 并内置 8 种声音场景(放松/专注/睡眠/工作/学习/冥想/...), 支持一键播放内置混音。另外已适配 PWA 和 WebAPK, 方便在手机上离线使用。

自己用了几个月了,主要的 bug 应该都解了,欢迎使用&分享.

]]>
我给老美们做了个退税小工具 tag:www.v2ex.com,2025-12-18:/t/1179864 2025-12-18T13:58:30Z 2025-12-18T09:58:30Z daoremi member/daoremi 今天逛 Google trend 就看到了这个退税关键词,就想着试试看 google 新上的 flash3preview 的模型,前前后后还是花了 5 个小时,大神轻喷 https://taxrefundpro.borninsea.com/

]]>
整合了一堆 AI 图片工具,免费送 credits,求试用反馈。 tag:www.v2ex.com,2025-12-18:/t/1179860 2025-12-18T13:35:00Z 2025-12-18T10:35:00Z alanzhan member/alanzhan 最近我花时间建立了一个 AI 图片生成工具站,地址是: https://photoartai.com/

核心模型

主要功能

费用说明

使用特点

后续计划

未来预计增加以下功能:


求轻喷,也欢迎一起交流建站心得。

网站链接:https://photoartai.com/

]]>
写了一个下载视频的软件,从播放器保存视频。 tag:www.v2ex.com,2025-12-18:/t/1179855 2025-12-18T13:14:52Z 2025-12-18T15:14:52Z zsea member/zsea 理论上在浏览器里能够观看的视频都能进行下载。目前测试过油管、知乎、B 站、央视视频、网页抖音等。。。
比如央视视频这种在浏览器中进行数据解密的网站,也能正常进行下载,理论上即使更新了算法软件也能自动解密。

使用方法:
1. 软件启动后,在地址栏粘贴上视频播放的地址(URL),如果需要登录,就自己登录一下。
2. 网页打开后,在网页中原来播放器的位置会显示一个下载按钮。
3. 点击下载按钮就可以下载的。在下载的时候,可以调整播放器的速度来提高下载的速度。

注意事项:
1. 对于需要使用代理服务器才能访问的网站,可以设置代理。
2. 有些网站验证了浏览器的 UA ,可以在设置里进行修改。
3. 内置的 ffmpeg 只能处理 2G 以内的视频。对于超大的视频,可以使用自己电脑上的 ffmpeg 进行处理。

下载地址:
百度网盘 https://pan.baidu.com/s/16wmZhhwHGCubDlEzRzdg6w?pwd=pp6k 提取码: pp6k
夸克网盘 https://pan.quark.cn/s/8df5925973e8 ]]>
宣传一下我的开源神经网络训练架构,请大家多多批评。 tag:www.v2ex.com,2025-12-18:/t/1179852 2025-12-18T12:33:27Z 2025-12-18T20:48:35Z evegod member/evegod 🌌 H2Q-MicroStream: Holographic Hamiltonian Quaternion Transformer

"智能不是记忆过去的所有细节,而是掌握生成未来的核心方程。"

"Intelligence is not about memorizing every detail of the past, but mastering the core equations that generate the future."

License: MIT PyTorch Status


📖 项目简介 / Introduction

H2Q-MicroStream 是一个极具实验性的深度学习架构,旨在探索语言模型的物理动力学本质。与追求巨大参数量和超长上下文窗口的主流 Transformer 不同,本项目基于奥卡姆剃刀原则 (Occam's Razor) 和 **全息原理 (Holographic Principle)**,构建了一个极简、实时、且具有强物理约束的“思维内核”。

H2Q-MicroStream is a highly experimental deep learning architecture designed to explore the physical dynamics of language models. Unlike mainstream Transformers that chase massive parameter counts and infinite context windows, this project builds a minimalist, real-time, and physically constrained "Thinking Kernel" based on Occam's Razor and the Holographic Principle.

核心哲学 / Core Philosophy

  1. 思考内化 vs. 语言表达 (Internalization vs. Expression):

    • 我们认为,现有的 LLM 花费了太多算力去学习“如何像人一样说话”(语法糖),而忽略了“如何构建世界模型”(核心逻辑)。
    • H2Q 旨在构建一个高维全向的思维核心。它的中间状态可能人类难以直接理解(类似于脑电波),但它包含了对信息本质的拓扑映射。
    • We believe current LLMs spend too much compute on "speaking like a human" (syntax) rather than "modeling the world" (core logic). H2Q aims to build a high-dimensional, omnidirectional thinking kernel.
  2. 状态保持 vs. 历史回溯 (State-based vs. Retrieval-based):

    • 人类没有 128k 的上下文窗口。我们靠的是核心状态 (State) 的实时演化。
    • 本架构放弃了对历史数据的无限 Attention ,转而追求在极短视界( Micro-Horizon )内的哈密顿动力学演化
    • Humans don't utilize 128k context windows; we rely on the real-time evolution of a Core State. This architecture abandons infinite attention on history in favor of Hamiltonian dynamic evolution within a Micro-Horizon.
  3. 本质压缩 (Essence Compression):

    • 如果一个规律不能用极少的基底( Rank 8 )解释,那就是在死记硬背。
    • If a pattern cannot be explained with a minimal basis (Rank 8), it is rote memorization, not learning.

🚀 关键技术特性 / Key Technical Features

1. 🌌 四元数时空注意力 (Quaternion Spacetime Attention)

引入四元数 (Quaternion) 代数,将注意力机制从标量积升级为四维时空干涉

Moves attention from scalar products to 4D spacetime interference. Real parts represent energy/amplitude; Imaginary parts represent spin/phase, introducing nonlinear Phase Rotation Feedback to capture high-dimensional linguistic entanglement.

2. 📉 Rank-8 本质约束 (Rank-8 Essential Constraint)

模型权重不是静态矩阵,而是通过 Structure Bank 动态生成的。我们强制将 Rank 限制为 8

Weights are dynamically generated via a Structure Bank with a forced Rank of 8. This forces the model to abandon rote memorization and extract only the 8 most essential spacetime evolution patterns.

3. 🌊 Unicode 流式动力学 (Unicode Stream Dynamics)

摒弃了 BPE Tokenizer (如 Tiktoken ),直接使用 Unicode (ASCII/UTF-8) 编码。

Abandons BPE Tokenizers for direct Unicode (ASCII/UTF-8) encoding. establishing a universal physical interface. Uses parallel streaming to simulate continuous reading flow rather than random slicing.

4. ⚡️ 微批次高频更新 (Micro-Batch High-Freq Update)

Simulates biological high-frequency impulse learning. With a micro-batch of 24 and continuous updates, the parameters undergo continuous differential evolution in the manifold space.


🛠️ 安装与运行 / Installation & Usage

环境要求 / Requirements

快速开始 / Quick Start

  1. 克隆仓库 / Clone the repository

    git clone https://github.com/makai891124-prog/H2Q-Transformer.git cd H2Q-Transformer 
  2. 安装依赖 / Install dependencies

    pip install torch numpy requests 
  3. 运行训练 / Run training 无需手动下载数据,脚本会自动下载 WikiText-2 数据集并开始训练。 No need to manually download data; the script will automatically download WikiText-2 and start training.

    python main.py 

📊 配置说明 / Configuration

main.py 中的 CONFIG 字典中调整参数。当前默认配置为 "H2Q-MicroStream" 模式:

COnFIG= { 'dim': 768, # 模型宽度 (GPT-2 Small level) 'fixed_rank': 8, # 🌟 核心参数:限制模型的"脑容量"以逼迫其思考 'seq_len': 128, # 微视界:只关注当下瞬间 'batch_size': 24, # 物理 Batch:极小,高频更新 'depth': 12, # 深度 'axiom_lambda': 0.1, # 正交性约束强度 # ... } 

🔮 展望与未来 / Future Roadmap

目前的 H2Q 模型是一个纯粹的思维内核。它的输出可能看起来像“乱码”或极其抽象的方言,这是因为它正在展示内部的原始状态流

未来的开发计划包括:

  1. 解码器挂载 (Projector): 训练一个独立的“翻译器”模块,将 H2Q 的全息状态映射回人类自然语言。
  2. 多模态流 (Multimodal Stream): 由于采用 Unicode/Byte 接口,尝试直接输入音频或图像字节流。
  3. 边缘侧部署 (Edge Deployment): 利用 Rank-8 的极高压缩率,尝试在移动端运行全息内核。

The current H2Q model is a pure thinking kernel. Future plans include training a separate "Projector" to translate holographic states into human language, exploring multimodal byte streams, and edge deployment via high compression rates.


📜 许可证 / License

本项目采用 MIT License 开源。


致谢 / Acknowledgements

感谢所有探索几何深度学习、SSM (State Space Models) 以及对 Transformer 架构进行反思的研究者们。本项目的灵感来源于全息原理、哈密顿力学以及人类认知的本质。

]]>
橘猫起始页 更新&建议收集 tag:www.v2ex.com,2025-12-18:/t/1179805 2025-12-18T08:52:21Z 2025-12-17T16:52:21Z qzhai member/qzhai 更新优化了一波。

没用过的 欢迎试试。

有用过的 提提建议。

https://jvmao.net/


介绍

一个极简简单的浏览器新标签页插件,注重细节与用户体验

✨ 核心特点


🎨 外观与显示模式


🔍 聚合搜索

💡 与其他标签页不同:搜索结果页中会罗列其他搜索引擎图标,点击即可跳转


🖼️ 壁纸功能

基础功能:

第二壁纸(隐藏壁纸):

💡 贴心设计:第二壁纸默认模糊,鼠标移入才清晰,保护隐私


📦 抽屉功能

基本操作:

数据安全与同步:

彩蛋功能:

💡 使用场景:如果正在忙一些事情,突然来个其他事,就可以一键把网址缓存起来,下次再重新打开


📝 便签功能

基础便签:

快捷便签:

网页内容快速保存:

时间胶囊(彩蛋功能):

💡 王炸功能:可以快速记录你在任意网站上发现的任何信息,方便日后整理

https://jvmao.net/

商城里打个评分就更好了

]]>
用 Gemini3 pro 做了一个辅助写日报、周报的。我觉得 UI 真的好看~ tag:www.v2ex.com,2025-12-18:/t/1179800 2025-12-18T08:40:37Z 2025-12-18T10:36:01Z pubing member/pubing 还可以看资讯
花了我 6 个小时.
链接: https://iwali.cn ]]>
[只读]把去掉视觉信息也不影响其内容的视频转换为文字 tag:www.v2ex.com,2025-12-18:/t/1179787 2025-12-18T08:10:13Z 2025-12-18T11:10:13Z hertzry member/hertzry 灵感

逆流 —— 在 AI 加持的信息过载时代进行自媒体探索

原本只需要瞥一眼就能获得的信息,现在要耗费大量时间与能量才能获得;彼此毫不相干的视觉、听觉与文字信息对感官的狂轰滥炸,在神经系统中引发了回荡不息的噪声。

单纯是为了获得观点,看一个 50 分钟长视频的时间,足够搜索并概览数万字论文或略读一本科普类的实体书了。

思考

B 站大学的确能学到知识,在看了一些科普类视频后,我又想起几个月前看的这篇文章。有一些视频,假如只听声音,也不影响其中的观点和数据,尽管他们真的花费很大力气做花哨的动画和图表。在此基础上,如果一直跟着他们声音走,就很难停下来思考,特别是口播几乎没有停顿和间歇,基本都是从开头说到结尾,“看完”了也忘完了。

还有谈话节目,就是两个人坐在那里聊天,似乎真的不需要用眼睛去看。由此想到了电影,大部分说台词的时间并不多,主要还是用眼睛去看,有一些停顿来营造情绪和气氛。如果一部电影从头说到尾,那大概就是几万字详解 xx 电影了。

做一个小玩具

我把赛博食录的视频链接用爬虫(稍作修改),然后用 yt-dlp 下载分离出音频,最后用 openai-whsiper 转写成文字。虽然有些错误和标点加不上,但是整体不影响阅读。 用 ai 写了一个简单的页面,暂时只放了几个,目前还很粗糙。

https://keiwo.github.io/readonly/

如果有大家想"读”视频,可以发他们的名字,我抽空会添加进来。

]]>
Fin-Agent Desktop Windows 桌面版正式发布:打造您的专属智能金融分析终端 tag:www.v2ex.com,2025-12-18:/t/1179779 2025-12-18T07:42:25Z 2025-12-18T07:42:25Z vodmaker member/vodmaker 大家好,我又又又来了,Fin-Agent Desktop Windows 桌面尝鲜版 v0.0.1 现已正式发布。作为一款集成先进大语言模型与专业金融数据分析工具的桌面应用程序,Fin-Agent Desktop 致力于为投资者和金融从业者提供高效、精准的智能投研体验。

核心驱动,一脉相承

本次发布的桌面版深度集成了 Fin-Agent 最新版本 v0.5.13 的核心能力。我们完整保留了该版本的所有功能特性,确保用户在桌面端也能享受到同等强大的服务。通过本地化部署与桌面环境的深度适配,Fin-Agent Desktop 实现了更稳定的性能表现和更流畅的交互体验。

主要功能特性

  1. 智能金融对话:内置基于 OpenAI/DeepSeek 的大语言模型引擎,支持深度的多轮自然语言交互,能够精准理解复杂的金融术语与逻辑,为您解答各类投资疑问。
  2. 全市场行情监控:覆盖股票、指数、ETF 及期货等多种金融产品,提供实时数据推送与历史行情查询,助您把握市场脉搏。
  3. 专业图表分析:自动生成各类 K 线图及技术指标图表,将枯燥的数据转化为直观的市场走势分析,辅助您做出科学决策。
  4. 资产组合管理:提供专业的投资组合管理工具,支持全方位的持仓分析与收益追踪,让资产状况一目了然。
  5. 策略模拟回测:内置高效回测引擎,支持交易策略的验证与优化,通过历史数据检验策略的有效性。

便捷交互,即刻触达

为了适应高频、快节奏的金融工作场景,Fin-Agent Desktop 特别引入了全局快捷键支持。安装完成后,用户只需按下 Ctrl+Alt+Q ,即可在任何界面快速唤起软件,进行即时查询或分析;再次按下即可隐藏至后台,真正实现“即用即走”,不打断您的工作心流。

立即体验

Fin-Agent Desktop Windows 版现已开放下载。诚邀您点击下方链接获取最新安装包,开启智能金融分析的新篇章。

下载地址:

https://github.com/YUHAI0/fin-agent-desktop/releases

]]>
瑞萍一下 aistudio.xiaomimimo 生成的网站 tag:www.v2ex.com,2025-12-18:/t/1179775 2025-12-18T07:36:16Z 2025-12-18T07:34:16Z ToDayMkCode member/ToDayMkCode [ 视频演示 虚拟 mac 系统] https://www.bilibili.com/video/BV1RhqnBGESv/?share_source=copy_web&vd_source=b38d30b9afa4cdb7d6538c4c2978a4c8

体验

]]>
Android 语音转文字实时字幕--实战小语种日语电影 tag:www.v2ex.com,2025-12-18:/t/1179740 2025-12-18T06:04:41Z 2025-12-18T06:04:41Z wulikanhuaz member/wulikanhuaz 接入了在线 gummy ,支持日语了

IMG_20251218_185851.jpg

已做马赛克处理

下载

]]>
尝试用 Antigravity Vibe Coding 了一个在线工具,聊聊 AI Agent 编程的真实体验 tag:www.v2ex.com,2025-12-18:/t/1179735 2025-12-18T05:50:43Z 2025-12-18T09:55:37Z zittur member/zittur 前不久 Google 发布了 Antigravity ,久闻大名但是一直没有去试用,昨天晚上兴起,试了用它全程 Vibe Coding 一个网站,为肉鸽游戏《 Chaos Zero Nightmare 》(CZN) 撸一个存档点数计算器。

项目地址: https://www.cznsavedata.com/

一些的心得:

我之前用过 cursor 、claude 、codex ,cursor 太贵了,claude 和 codex 也动不动就卡死,antigravity 这个刚出来,给的额度很大方,我早上搞了三个小时,Gemini 3 Pro 模型才用了 20%左右的额度,这怎么用得完???

这个网站里面的卡片背景图就是 antigravity 调研 nano banana 生成的,给我看呆了,我都不用再去网页上一个一个生成,方便多了,这种简单的图片这样做就很快了。

深深感觉的现在写代码没有什么障碍了,不过这只是一个简单的小玩具,后面开一个更大的项目来玩玩。

]]>
开发了一个 comfyui 角色选择自定义节点,支持实时预览角色,输出多种文本格式; tag:www.v2ex.com,2025-12-18:/t/1179725 2025-12-18T05:14:09Z 2025-12-18T05:13:09Z yankoko member/yankoko





目前支持 原神、崩坏:星穹铁道、绝区零、鸣潮;后续会增加其他作品角色;
仓库地址: https://github.com/kotone/Comfyui-character-tag-selector ]]>
做了一个小工具,人生 k 线图 tag:www.v2ex.com,2025-12-18:/t/1179700 2025-12-18T03:33:33Z 2025-12-07T23:32:33Z Jesmora member/Jesmora 做了一个工具,无任何登录、无任何盈利、纯玩工具,来测测你的人生 k 线走势

bb9e6f28b00a6c2dec4438f700364878.png

分享一批可用的码,每个可用一两次,建议还是用自己的配置,出于安全建议用一个短效 key ,站点提供的模型为 zai-glm-4.6 ,每分钟 10 次并发,可能不稳定,最好的模型建议使用 Gemini3 pro

sk-tstc0vp2glpbi2u sk-5gl837x5o0tcb1q sk-gmdb9cttsu9mb6b sk-kt61djis0vfqs9g sk-7l8b0anpegfapj sk-u5ru0mk1xdc24gk sk-0fm3zsq09zwvldqv sk-7bcvozwa7whlfvp sk-olom144htgybox sk-4pnphoihq3j3v9w sk-a2kqop1lb9cs5r5 sk-6xo0p0h4zlhjhu5 sk-m5wfce1z0ieclst sk-olh6lzm8c2cnzqr sk-as2caw5s9nv34p6 sk-8ojcbpofplh4myi sk-lvrtm5fhsvp4el sk-vvi3p2q18ccccjo sk-kr6oeuupucgla0 sk-soayzg91ifpeou 

传送门: https://rskx.asia

]]>
一天上线「图像标记」功能: AI 让我这个前端小白也能做复杂交互 tag:www.v2ex.com,2025-12-18:/t/1179693 2025-12-18T03:21:50Z 2025-12-18T06:21:48Z lemonvip member/lemonvip
最近给自己的产品做了一个新功能:图像标记( Image Marking )。

简单说就是:用户可以在图片上写字/划线标记想改的位置,然后在提示词里说“把鸟加到我标记的地方”,AI 就能比较精准地只改那一块。

更离谱的是——从想到这个点子到上线可用,我基本在一天之内搞定。我是个技术小白,前端交互一直不算强,这次算是被 AI “抬”上去了。

为什么要做这个功能?

很多人用 AI 修图都会遇到一个痛点:
提示词写得很清楚,但模型还是改错地方,甚至改全图。

所以我想要一个“人类表达更直接”的方式:
在图片上直接指出位置,再让 AI 按位置执行。

结果做出来之后,用户上手也更快:

标记“bird” → prompt 写“在标记处加鸟,并把标记文字去掉” → 出图就对了

不需要来回试“左上角/右边一点/再靠上一点”这种玄学描述

我是怎么在 1 天内做完的?

我把整个过程拆成了 6 步,几乎每一步都离不开 AI 。

Step 1:想到想法 → 用 ChatGPT 调研可行性

我先问 ChatGPT 进行联网搜索:

“网页端图片标记一般怎么做?”

这一步最大的收益是:快速定方向,少走弯路。

Step 2:画原型图(越粗糙越好,但要表达清楚)

我会用非常粗糙的方式画:

点击 Edit → 弹出标记层

支持画线/文字

Done 保存 → 回到生成器继续写 prompt

原型图的目的不是漂亮,是为了让 AI 和自己都能对齐“最终长什么样”。

Step 3:用 Codex 5.2 Max High 写技术方案

我让 Codex 直接输出一个“可落地的方案”,包括:

组件结构怎么拆

关键数据结构(标记内容如何存储)

事件逻辑(绘制、撤销、保存、导出)

以及和生成器的串联方式

对我这种前端不熟的人,这一步相当于:
把脑内想法翻译成工程语言。

Step 4:用 Claude Code 执行落地

方案有了之后,我就让 Claude Code 直接开始写:

UI 和交互逻辑

标记弹窗

保存/读取标记数据

和生成页面连接起来

这一步是“体力活”,cc 非常适合做。

Step 5:遇到 bug → 用 Cursor 拉来三位“大神”会诊

中间肯定会遇到各种 bug (比如坐标错位、缩放偏差、事件冲突等)。
我在 Cursor 里同时调模型来排查:

Gemini 3 Pro

Claude Opus 4.5

GPT o3


这一步最大的体感是:
以前搞不定的 bug ,现在像“多人结对编程”一样,小白也能搞定。

Step 6:上线 + 测试

最后就是:

自己跑一遍真实流程


做完之后的感受

这次让我最震撼的是:

AI 真的可以把一个前端小白,短时间内“拉升”到能做复杂交互功能的水平。要敢想敢做。

当然,不是说全程躺平。
更像是:你负责方向、拆解、判断; AI 负责产出、补全细节、加速迭代。

欢迎体验

网站:
https://nanobanana.co

产品介绍博客(英文):
https://nanobanana.co/blog/Precisely-Edit-Images-with-Image-Marking

产品介绍博客(中文):
https://nanobanana.co/zh/blog/Precisely-Edit-Images-with-Image-Marking

欢迎大家试用,也欢迎拍砖:

你觉得这种“标记 + prompt”的交互是否更适合大众? ]]>
用 AI 做了一个免费的英语练习工具 tag:www.v2ex.com,2025-12-18:/t/1179687 2025-12-18T03:14:19Z 2025-12-18T05:04:39Z kamalei member/kamalei 采用的无服务器模式,需要自备 API KEY 。 现在学英语太多方法论/捷径了,我现在倒觉得最笨的方法就是最快最好的办法,就像我们小时候学语文课文一样,通过一篇一篇的课文练习来学习语言文字。

欢迎来体验: https://philingo.leix.dev/

]]>
octopus | 为个人打造的美观优雅的 LLM API 聚合服务 支持 自动分组 自动同步上游模型 热重载 负载均衡 协议互转 用量统计 tag:www.v2ex.com,2025-12-18:/t/1179685 2025-12-18T03:10:16Z 2025-12-18T03:08:16Z bestrui member/bestrui 🖥️ 桌面端
首页仪表盘 渠道管理 分组管理
首页 渠道 分组
模型管理 日志 设置
模型 日志 设置

📱 移动端

首页 渠道 分组 模型 日志 设置
移动端首页 移动端渠道 移动端分组 移动端模型 移动端日志 移动端设置

功能

功能亮点

开源地址

https://github.com/bestruirui/octopus

]]>
VibeCoding 了一个 5 分钟的宇宙小剧场,欢迎来玩 tag:www.v2ex.com,2025-12-18:/t/1179681 2025-12-18T03:03:37Z 2025-12-18T05:03:37Z zhenghuiy member/zhenghuiy 每天帮你节约 x 小时,这个浏览器 Agent 怎么做到的 tag:www.v2ex.com,2025-12-18:/t/1179657 2025-12-18T01:48:00Z 2025-12-18T06:45:06Z plane member/plane 昨天发了个帖子(我做了一个,可能是全世界第一个真正能用不是玩具的浏览器 agent)简单介绍了最近做的项目,收获了大家的 star 和点赞。今天再介绍一下背景,实现方案,以及未来规划。

github 地址:https://github.com/browserwing/browserwing

如果你喜欢或觉得有帮忙 star 一个呀

微信图片_20251212012211_40_2683.jpg

背景

最近我在学习 AI 编程,尝试做出好用产品。现在使用 AI 在开发可以很大提升开发效率,产品是可以很快开发出来,但瓶颈就卡在了怎么宣传运营推广上,我想把这快也做自动化,比如让 AI 自动写 seo 文章发表,自动收集评论回复等等。然后我发现当前那些夸的很强大的所谓通用 agent 或 AI 浏览器或浏览器 agent 几乎没一个能用的。其次的方案,要么自己写自动化,但是也很麻烦,我要去针对网站写各种类似爬虫代码,还有打通 AI 大模型。于是我选择了自己开发,主要是快 2026 年,竟然还没有一个真正好用能用的浏览器 agent ,这激发了我的创作动力。我的诉求很简单,这个框架要能:

我的定位不是高大上酷炫却没啥用的通用 agent ,而是真正能让人人用得起且能高效处理问题的垂直专用框架。

实现

说到实现,先回顾下现在传统的绝大多数 agent 的方案,比如 browseruse 等等。 浏览器 Agent 的难点就在于怎么把自然语言转化为能执行的具体浏览操作(点击,输入,滚动等等)。这些传统 agent 框架给出的方案就是:

  1. 视觉识别+dom 解析,把上下文(经过压缩的对话总结)丢给大模型,让他给出下一步的操作
  2. 执行具体操作
  3. 等待浏览器渲染
  4. 重复 1 ,直到大模型认为任务已完成

这个方案有什么问题呢?

  1. 复杂的上下文造成 token 的累积,导致消耗多与费用贵
  2. 长上下文还很考验 context 工程,很容易导致任务失败,成功率降低

上面这两点已经非常致命,直接导致这个方案其实看着很好很通用,实际上用不了,因为他过于依赖大模型和算力。 对于我这种场景更加是不能胜任。

而 browserwing 采用的方案呢。是我们不再寻求通用方案,而是退而求其次先录制浏览器行为交给大模型调度,相当于大模型不再需要去通过复杂的上下文判断我该点击什么元素或在哪里输入元素,而是我直接告诉他执行 A 脚本就是点击这里并输入。大模型不关心背后这个任务是做了什么,他只需要在上层进行调度。 调度的动作没有特别复杂的上下文,但是输入输出会带上上下文,这个是一个优化点,也是类似 claude skills 在解决的问题,browserwing 也会跟进。

你可以理解为这样的一个执行流程:

  1. 我告诉大模型,我要根据发一篇帖子到 V2EX ,并回复这个帖子下面用户的评论
  2. 大模型会调用我们提前录制好的发帖子任务,输入对应的参数,即可发帖
  3. 大模型监听拿到帖子下的评论,确定哪条评论需要回复
  4. 大模型调用我们录制好的回复帖子任务,进行帖子的回复

直到这里,具体任务的完成都是没有问题的,但核心是什么呢,就是怎么去录制行为。browswerwing 采用了可视化+AI 辅助录制的方式,你可以打开网页后点开始录制,然后正常执行你的操作,然后结束即可。遇到复杂的表单或者想要转结构化的内容,可以使用 AI 自动识别生成可复用代码,完全不需要你写一行代码。

但是你仍然觉得录制是可以需要人工的操作,很麻烦呀。其实,随着这个平台用的人越来越多,脚本越来越多,很多共用脚本你是完全不需要你写的,因为本身就可以复用。比如上面提到的 v 站发帖回复的脚本。你只要订阅导入即可。除非你的特定的平台特定的场景,那么需要你去进行录制。

未来规划

商业化这块,目前 browserwing 是完全开源免费的,但是为了生存发展,如果能帮到大家,后续也会考虑做在线服务和提供更高阶的收费功能。

目前,还是非常初期的能用的状态,但是还有很多需要进行迭代,比如怎么去处理更复杂的交互,怎么可以把录制也从半自动变成全自动的行为等等。

以及,针对不同平台做成 skill 类似的能力,比如:支持在 drawio 创建操作流程图的 skill ,在作图网站帮你作图的 skill ,执行在线文档的 excel 操作等等。这个概念就是形成一个网站的操作专家,你的任务是关于特定这个网站的,那么他可以再形成规划,在网站下去执行复杂操作。

关于我

我是 Glenn ,一个有编程基础的 vibe 工程师。希望做出大家喜欢好用的产品。

我还有另外一个产品:Modern Mermaid ,一个很好看好用的 mermaid 流程图设计网站,喜欢的也可以点点赞收藏起来。

github: https://github.com/gotoailab/modern_mermaid

网站:https://modern-mermaid.live

screenshot-brutalist.png

更多信息,请关注我的社交媒体:

]]>
分享一下我的 GiffGaff 短信转发和自动保号项目 tag:www.v2ex.com,2025-12-18:/t/1179653 2025-12-18T01:44:10Z 2025-12-18T19:10:38Z dushixiang member/dushixiang 先说明一点:这个项目并不是重复造轮子,仅适合 SIM 卡没流量,并且家里有设备长时间运行的环境。

如果你搜索过「air780e 短信转发」,大概能看到目前主要有两种方案:

方案一:使用 air780e SIM 卡自带流量进行转发 实现简单,但问题也很明显——像 GiffGaff 这种卡流量价格非常离谱,长期使用成本太高,直接 Pass 。

方案二:air780e + ESP32 ,通过 WiFi 转发 这种方式在技术上是可行的,但需要自己焊接 ESP32 。 奈何我属于那种一拿电烙铁手就开始手抖的人,焊精密元件基本等于劝退 😅。


基于以上原因,我最终选择了一条完全不需要焊接的路线:

串口控制 air780e + Golang 后端

通过串口直接控制 air780e ,把短信的收发能力暴露出来,后端使用 Golang 来实现统一的服务层。

目前这个方案的特点是:

插上 air780e ,运行我写的程序,完事。

项目地址: https://github.com/dushixiang/uart_sms_forwarder

]]>
送码! Nycto - macOS 服务管理桌面程序, launchctl 命令工具的 gui 程序。 tag:www.v2ex.com,2025-12-18:/t/1179649 2025-12-18T01:38:48Z 2025-12-19T08:29:20Z ybz member/ybz Nycto 是什么?

Nycto 是一款专为 macOS 服务管理的桌面程序,可以使用它来管理、创建 macOS 的后台服务,可以理解为它是 macOS 系统中的 launchctl 命令行工具的 gui 化。

为什么你需要 Nycto ?

1. 告别手写 plist ,可视化管理服务 这是开发它的初衷。Nycto 提供了一个现代化的 GUI 界面来管理 macOS 的 Launch Agents 和 Daemons 。

2. 行业唯一的远程管理功能 得益于 Flutter 的跨平台 UI ,Nycto 同时提供了 web ui 。如果你有多台 Mac (比如公司一台、家里一台,或者有台 Mac mini 做服务器),Nycto 可以让你:

官网: https://nycto.core-byte.com/

🎁 送码福利

怎么拿?

  1. 在评论区随便说点啥(建议、吐槽、鼓励都行)。只需要评论中包含邮箱地址或者 base64 编码的邮箱地址,会有脚本每 5 分钟获取一次该帖子的评论,自动发送激活码到您的邮箱。
    • 小提示:注意检查邮件垃圾箱。

规则:

额外的小吐槽

谷歌真的没有自然流量!上个月谷歌搜索点击数量高达 15 次!该软件其实几个月前就做出来了,除了那个远程管理功能,这几个月时间付费用户数量为 0 !除了一个大学生发邮件过来要一份免费的( ps.我也给他了),追梦的独立开发者们可以参考下🐶,我没有啥推广经验,也没做啥付费推广。下一步可能会做推广分成,到时候只能指望多分成给 v 友们推广了。

感谢支持!🙏

]]>
TINKER - 开源桌面工具箱 tag:www.v2ex.com,2025-12-18:/t/1179641 2025-12-18T01:02:01Z 2025-12-18T10:18:28Z surunzi member/surunzi 日常会用很多小工具,一部分来自工具箱类应用,一部分是单独的桌面小工具应用,还有各种 online xxx tool 。很久之前就一直想把这些给整合到一起,统一起来方便自己使用,但感觉工作量庞大,根本抽不出时间。最近开始试用 AI 辅助编码,确实效率提高不少而且非常适合这类小工具的编写,就直接开干了。

目前主体框架已简单搭了下,所有工具都是以插件的形式进行开发,内置在工具中,后期可能会开放外部插件。现在主要是不断重写改进自己常用的一些工具内置进去,满足自己的使用。

有兴趣的小伙伴可以试试,说不定也能用上,如果有任何建议或者使用问题直接在仓库中反馈。

官网: https://tinker.liriliri.io/zh

仓库: https://github.com/liriliri/tinker

screenshot

calucationpad

codeimage

switchhosts

imagecompressor

imagecropper

jsoneditor

]]>
ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86