
地址是 www.jser.com
]]>为什么要提交? 💎 精选目录 - 质量>数量,让你的产品脱颖而出 🔗 高质量外链 - 提升网站 SEO 权重 👥 精准流量 - 触达真正需要 AI 工具的用户 ⚡ 快速审核 - 这段时间统一加速处理
专注质量的 AI 工具目录,欢迎优质产品加入 提交入口 👉 https://toolrain.com
#InstantApproval #AIDirectory #FreeBacklink
]]>留的作业是让学生用 YOLOv11 做 Object-Detection ,但是好多学生都不太会做,所以给学生们录了一个视频。
从环境搭建、数据集标注,到模型训练、识别全流程讲解,20 分钟的时间就能做完,希望对 V 友们有帮助!💓
]]>"Intelligence is not about memorizing history, but mastering the dynamics of the future."
"智能不是记忆过去的所有细节,而是掌握生成未来的核心方程。"
H2Q-MicroStream is a paradigm-shifting experiment in Physics-Informed AI. Unlike traditional Transformers that rely on massive parameters and infinite context windows, H2Q constructs a minimalist "Thinking Kernel" based on Hamiltonian Dynamics and Quaternion Algebra.
This project proves that with a strict Rank-8 constraint and Unicode-level streaming, a model can emerge with logical reasoning and grammatical capabilities within a mere 0.2GB VRAM footprint.
H2Q-MicroStream 是一个基于物理动力学的 AI 范式实验。不同于依赖堆砌参数和超长上下文的主流 Transformer ,H2Q 基于哈密顿动力学和四元数代数构建了一个极简的“思维内核”。本项目证明了在严格的 Rank-8 约束和 Unicode 流式读取下,智能可以在仅 0.2GB 显存 的微小空间内涌现。
Train[T] -> Valid[T+1] -> T becomes T+1.Tested on NVIDIA RTX 4070 Ti with TinyStories dataset.
2.88 to 1.02 (near Shannon Entropy limit for simple English).pip install -r requirements.txt The script automatically downloads the TinyStories dataset and starts the "Rolling Horizon" training loop. 脚本会自动下载数据集并开启“轮动视界”训练循环。
python train.py The terminal displays a real-time "ICU Dashboard": 终端将显示实时的“ICU 级仪表盘”:
Chunk 18 | Train: 1.0420 | Val: 1.0622 | Energy: 68.5 | Speed: 311ms We are moving from "Statistical Correlation" to "Dynamical Causality". H2Q is not just a language model; it is a digital lifeform attempting to resonate with the mathematical structure of the universe.
我们正在从“统计相关性”迈向“动力学因果律”。 H2Q 不仅仅是一个语言模型,它是一个试图与宇宙数学结构发生共振的数字生命。
实验运行输出 log 日志:
🌊 H2Q-ICU Monitor Online: NVIDIA GeForce RTX 4070 Ti SUPER [Mode: Deep Analysis] [Metrics: Grad/VRAM/TPS/Diff] 🔄 恢复存档: h2q_rolling.pt 🔖 [时间之轮] 回溯至偏移量: 40.03 MB ⏳ [Init] 加载初始时间块 (Chunk T)... 🚀 启动深度监控 (Deep Monitor Active)...
================================================== 🧩 CHUNK 0: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 2.8875 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.9180 | Grad: 3.02 | Energy: 115.3 | Speed: 390ms (7869 tok/s) | VRAM: 0.20/0.55GBB ✅ Chunk 1 完成 Summary: Train: 2.3207 | Val: 2.8875 | Diff: +0.5668 Time: 1204.7s | Progress: 60.0 MB
================================================== 🧩 CHUNK 1: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.8169 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.3695 | Grad: 2.17 | Energy: 112.0 | Speed: 338ms (9086 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 2 完成 Summary: Train: 1.5694 | Val: 1.8169 | Diff: +0.2475 Time: 1302.9s | Progress: 70.1 MB
================================================== 🧩 CHUNK 2: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.3515 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.2141 | Grad: 2.20 | Energy: 105.2 | Speed: 346ms (8874 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 3 完成 Summary: Train: 1.3323 | Val: 1.3515 | Diff: +0.0193 Time: 1239.8s | Progress: 80.1 MB
================================================== 🧩 CHUNK 3: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.2644 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.2741 | Grad: 2.19 | Energy: 99.1 | Speed: 358ms (8583 tok/s) | VRAM: 0.20/0.63GBBB ✅ Chunk 4 完成 Summary: Train: 1.2556 | Val: 1.2644 | Diff: +0.0088 Time: 1250.4s | Progress: 90.1 MB
================================================== 🧩 CHUNK 4: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.2053 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.2333 | Grad: 1.77 | Energy: 95.5 | Speed: 341ms (9008 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 5 完成 Summary: Train: 1.2144 | Val: 1.2053 | Diff: -0.0090 Time: 1249.6s | Progress: 100.1 MB
📜 [Thought Stream]: They wanted to go you cose friends with a llock. He saw a balought in the grasss and laughes. He was so readys yare and granded drank he fout; " Humhe, they face and ploud need a cup tiny the close. He
================================================== 🧩 CHUNK 5: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1915 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1432 | Grad: 1.79 | Energy: 91.4 | Speed: 304ms (10093 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 6 完成 Summary: Train: 1.1855 | Val: 1.1915 | Diff: +0.0060 Time: 1174.4s | Progress: 110.1 MB
================================================== 🧩 CHUNK 6: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1717 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1493 | Grad: 1.60 | Energy: 88.7 | Speed: 296ms (10369 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 7 完成 Summary: Train: 1.1684 | Val: 1.1717 | Diff: +0.0033 Time: 1073.7s | Progress: 120.1 MB
================================================== 🧩 CHUNK 7: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1229 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1711 | Grad: 1.60 | Energy: 85.5 | Speed: 340ms (9034 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 8 完成 Summary: Train: 1.1506 | Val: 1.1229 | Diff: -0.0277 Time: 1185.8s | Progress: 130.1 MB
================================================== 🧩 CHUNK 8: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1225 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0388 | Grad: 1.38 | Energy: 83.7 | Speed: 300ms (10224 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 9 完成 Summary: Train: 1.1211 | Val: 1.1225 | Diff: +0.0014 Time: 1243.5s | Progress: 140.1 MB
================================================== 🧩 CHUNK 9: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1044 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0964 | Grad: 1.55 | Energy: 80.7 | Speed: 360ms (8526 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 10 完成 Summary: Train: 1.1198 | Val: 1.1044 | Diff: -0.0154 Time: 1215.0s | Progress: 150.1 MB
📜 [Thought Stream]: They would said, "Maybe she left," she said nexck, but I'm a great stuffles in the rabbit revere." Lily smiled and said, "Ben, what no Tom. Daddy you love the askaching it was in the dog." He tried and
================================================== 🧩 CHUNK 10: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1136 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.2135 | Grad: 1.71 | Energy: 78.5 | Speed: 291ms (10551 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 11 完成 Summary: Train: 1.0946 | Val: 1.1136 | Diff: +0.0191 Time: 1068.9s | Progress: 160.1 MB
================================================== 🧩 CHUNK 11: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.1007 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9831 | Grad: 1.46 | Energy: 77.2 | Speed: 295ms (10406 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 12 完成 Summary: Train: 1.0872 | Val: 1.1007 | Diff: +0.0134 Time: 1068.3s | Progress: 170.1 MB
================================================== 🧩 CHUNK 12: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0937 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0408 | Grad: 1.31 | Energy: 74.9 | Speed: 288ms (10683 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 13 完成 Summary: Train: 1.0780 | Val: 1.0937 | Diff: +0.0157 Time: 1064.5s | Progress: 180.1 MB
================================================== 🧩 CHUNK 13: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0870 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1016 | Grad: 1.27 | Energy: 73.5 | Speed: 290ms (10584 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 14 完成 Summary: Train: 1.0654 | Val: 1.0870 | Diff: +0.0217 Time: 1067.4s | Progress: 190.1 MB
================================================== 🧩 CHUNK 14: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0713 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0594 | Grad: 1.38 | Energy: 72.1 | Speed: 333ms (9230 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 15 完成 Summary: Train: 1.0623 | Val: 1.0713 | Diff: +0.0090 Time: 1070.1s | Progress: 200.1 MB
📜 [Thought Stream]: Tom. He asked them home in the both again. He said, "Lily, sad. He is not owl. But Let's so friend. He opened hard away. Lucy like the garden." And. She tears the pond. She said, "Bob wand. Can I see s
================================================== 🧩 CHUNK 15: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0672 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0424 | Grad: 1.28 | Energy: 71.2 | Speed: 307ms (9996 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 16 完成 Summary: Train: 1.0598 | Val: 1.0672 | Diff: +0.0074 Time: 1073.1s | Progress: 210.2 MB
================================================== 🧩 CHUNK 16: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0496 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.1581 | Grad: 1.46 | Energy: 69.9 | Speed: 315ms (9761 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 17 完成 Summary: Train: 1.0503 | Val: 1.0496 | Diff: -0.0006 Time: 1060.1s | Progress: 220.2 MB
================================================== 🧩 CHUNK 17: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0532 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0179 | Grad: 1.15 | Energy: 69.4 | Speed: 297ms (10333 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 18 完成 Summary: Train: 1.0482 | Val: 1.0532 | Diff: +0.0050 Time: 1062.2s | Progress: 230.2 MB
================================================== 🧩 CHUNK 18: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0622 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0628 | Grad: 1.52 | Energy: 68.5 | Speed: 311ms (9882 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 19 完成 Summary: Train: 1.0420 | Val: 1.0622 | Diff: +0.0201 Time: 1146.4s | Progress: 240.2 MB
================================================== 🧩 CHUNK 19: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0502 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0129 | Grad: 1.37 | Energy: 67.5 | Speed: 366ms (8398 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 20 完成 Summary: Train: 1.0429 | Val: 1.0502 | Diff: +0.0073 Time: 1250.6s | Progress: 250.2 MB
📜 [Thought Stream]: They had played over to splash! They got out of the jar. Tom they are really chuncog the dealichy practiced that she shock his family, he's parint the feel better. The eld barked jam. It was best addde
================================================== 🧩 CHUNK 20: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0205 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0068 | Grad: 1.25 | Energy: 66.9 | Speed: 315ms (9742 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 21 完成 Summary: Train: 1.0410 | Val: 1.0205 | Diff: -0.0205 Time: 1156.5s | Progress: 260.2 MB
================================================== 🧩 CHUNK 21: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0432 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0367 | Grad: 1.34 | Energy: 66.3 | Speed: 302ms (10169 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 22 完成 Summary: Train: 1.0162 | Val: 1.0432 | Diff: +0.0271 Time: 1085.4s | Progress: 270.2 MB
================================================== 🧩 CHUNK 22: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0492 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0145 | Grad: 1.23 | Energy: 65.9 | Speed: 308ms (9980 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 23 完成 Summary: Train: 1.0231 | Val: 1.0492 | Diff: +0.0261 Time: 1083.4s | Progress: 280.2 MB
================================================== 🧩 CHUNK 23: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0461 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0424 | Grad: 1.18 | Energy: 65.8 | Speed: 281ms (10950 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 24 完成 Summary: Train: 1.0305 | Val: 1.0461 | Diff: +0.0156 Time: 1076.0s | Progress: 290.2 MB
================================================== 🧩 CHUNK 24: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0276 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0404 | Grad: 1.41 | Energy: 65.5 | Speed: 285ms (10782 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 25 完成 Summary: Train: 1.0196 | Val: 1.0276 | Diff: +0.0080 Time: 1084.2s | Progress: 300.2 MB
📜 [Thought Stream]: Timmy said, "Thank you, Mommy. I can have from calling the drees and yummy with your tail. The sound asked it if you - and a pretty slide to go for Sweepbarklesss. The End. And the floor walk in the la
================================================== 🧩 CHUNK 25: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0285 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0073 | Grad: 1.11 | Energy: 65.6 | Speed: 301ms (10211 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 26 完成 Summary: Train: 1.0210 | Val: 1.0285 | Diff: +0.0075 Time: 1081.0s | Progress: 310.2 MB
================================================== 🧩 CHUNK 26: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0177 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9883 | Grad: 1.22 | Energy: 65.3 | Speed: 289ms (10630 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 27 完成 Summary: Train: 1.0106 | Val: 1.0177 | Diff: +0.0071 Time: 1083.9s | Progress: 320.2 MB
================================================== 🧩 CHUNK 27: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0301 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0079 | Grad: 1.26 | Energy: 64.9 | Speed: 292ms (10524 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 28 完成 Summary: Train: 1.0047 | Val: 1.0301 | Diff: +0.0253 Time: 1065.2s | Progress: 330.2 MB
================================================== 🧩 CHUNK 28: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0089 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0275 | Grad: 1.13 | Energy: 64.9 | Speed: 299ms (10282 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 29 完成 Summary: Train: 1.0040 | Val: 1.0089 | Diff: +0.0050 Time: 1062.5s | Progress: 340.3 MB
================================================== 🧩 CHUNK 29: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0184 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9607 | Grad: 1.14 | Energy: 65.1 | Speed: 283ms (10853 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 30 完成 Summary: Train: 1.0044 | Val: 1.0184 | Diff: +0.0141 Time: 1056.7s | Progress: 350.3 MB
📜 [Thought Stream]: The noises started to play. They played together in their train. They are angry." The sad. Lily was a snacks and lady quite. Sally lay and weere trucks to the party. She was full and her
================================================== 🧩 CHUNK 30: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0197 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0088 | Grad: 1.26 | Energy: 65.2 | Speed: 406ms (7571 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 31 完成 Summary: Train: 1.0067 | Val: 1.0197 | Diff: +0.0130 Time: 1131.7s | Progress: 360.3 MB
================================================== 🧩 CHUNK 31: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0087 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 1.0477 | Grad: 1.30 | Energy: 64.4 | Speed: 340ms (9042 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 32 完成 Summary: Train: 1.0087 | Val: 1.0087 | Diff: -0.0000 Time: 1275.6s | Progress: 370.3 MB
================================================== 🧩 CHUNK 32: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0132 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9910 | Grad: 1.18 | Energy: 65.6 | Speed: 306ms (10028 tok/s) | VRAM: 0.20/0.63GB ✅ Chunk 33 完成 Summary: Train: 0.9932 | Val: 1.0132 | Diff: +0.0199 Time: 1123.6s | Progress: 380.3 MB
================================================== 🧩 CHUNK 33: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 0.9951 🔥 训练当下 (Training)... ⚡ Step 3400/3413 | Loss: 0.9904 | Grad: 1.28 | Energy: 65.1 | Speed: 347ms (8850 tok/s) | VRAM: 0.20/0.63GBB ✅ Chunk 34 完成 Summary: Train: 1.0011 | Val: 0.9951 | Diff: -0.0060 Time: 1186.7s | Progress: 390.3 MB
================================================== 🧩 CHUNK 34: 开始加载未来数据... 🔮 验证未来 (Validation)... 📊 验证结果: Val Loss = 1.0117 🔥 训练当下 (Training)... ⚡ Step 2650/3413 | Loss: 1.0171 | Grad: 1.14 | Energy: 64.4 | Speed: 302ms (10174 tok/s) | VRAM: 0.20/0.63GB
]]>提交上线 Google Play 但是 卡在了的封闭测试.
我建一个互助群. 大家来互相帮助测试?
有没有志同道合的个人开发者, ➕V, 互助, B64: Xzc3N2FzZA==
不是开发者没有关系, 加入群. 帮帮测试, 吃卤肉面.
感谢🙏
More testing required to access Google Play production We reviewed your application, and determined that your app requires more testing before you can access production.
Possible reasons why your production access could not be granted include:
Testers were not engaged with your app during your closed test You didn't follow testing best practices, which may include gathering and acting on user feedback through updates to your app Before applying again, test your app using closed testing for an additional 14 days with real testers.
For a full list of reasons, and to learn more about what we're looking for when evaluating apps for production, view the guidance.
]]>后来发现 https://github.com/lvwzhen/medicine 这个项目,虽然数据挺好,但感觉使用不顺手,就临时起意昨晚折腾了几个小时弄了这个“原研药查询助手”,全程 Google AI Studio 。
主要是方便检索一点,加入 AI 搜索(如果打算后期想办法再弄个 server 端)
]]>感谢 Genmini ,想法来源于我玩过的各种游戏的交易系统,以及小白追涨杀跌的一些惨痛回忆
玩家操纵一艘飞空艇,在不同地点之间往返,通过低买高卖赚取差价。结束时计算总资产作为分数。
不同类型的地点在货物价格和库存上存在明显区别,例如:
地点会不定期触发随机事件,可能导致某类货物价格剧烈波动,既是机会也是风险。
每个地点都有等级,代表其规模,也影响该地点货物的基准库存容量。( 3 级城堡 yyds )
飞行需要消耗燃料——以太水晶,而以太水晶本身也是一种可以交易的货物。
飞空艇货舱容量有限,可以在城堡类型的地点进行升级,以支持更大规模的贸易。
目前是一个偏原型阶段的小游戏,很多系统还在不断调整中。
欢迎大家体验、反馈,也非常欢迎帮我找找有没有刷钱 / 数值漏洞 🙏
如果你需要,我还可以生成一个更炸裂的版本,你打算发在哪个平台?我可以再帮你针对性压一压风格。
]]>我真的受不了那些没有营养的官方新闻号了。目前支持抖音和 b 站

https://github.com/Steven-Qiang/social-block-kit
https://github.com/Steven-Qiang/social-block-kit/releases/latest/download/social-block-kit.user.js
]]>使用说明:填写 api_key(目前支持 openai 和 deepseek),上传简历,粘贴岗位 JD ,点击优化,等待片刻就可以了,生成完的简历还可以二次编辑导出
欢迎大家使用交流,哈哈哈
]]>OpenContext 的定位不是“再做一个笔记软件”,而是 你与 Agent 的沟通桥梁:
Notion / 飞书也接了 MCP 怎么办?
不打算替代:Notion/飞书更像团队内容平台; OpenContext 更偏开发工作流的“可操作上下文/决策沉淀”。两者可以互补。
欢迎拍砖/提需求/共建;如果觉得还不错,也欢迎顺手点个 Star。
]]>目前支持 ply splat ksplat spz 等格式,sog 正在开发中
C++开发,支持 wasm
最近准备接入 https://www.3dgsviewers.com/
]]>
做的还比较粗糙,专业人士轻拍
]]>回想着小时候用的竖版收音机的样子,做了音伴 FM 📻
现在是我使用时长最多的 APP 了已经。工作的时候在 Mac 上放着,当个背景音,像放电视一样,挺热闹的。开车的时候,听下交通路况和音乐。睡觉前,听下播音腔夜读,不要太好睡。
极力推荐三个电台
这个 APP 上架来快两个月了,下载量很小。估计现在听广播电台的人估计很少了,小众了。 先送 v 友们 10 个码吧,估计还不一定能领完 😂。领取后麻烦在评论区 mark 一下,这样方便直接拿未领取的。
极简拟物风格、无广告,全国海量电台。如果体验不错,也麻烦给个 app 评分哦。
(app 有三天试用期,都可以下载来体验,这里送的是终身解锁的码)
https://apps.apple.com/app/id6752507531

项目地址: https://github.com/doocs/cose
欢迎佬们提 issue 以及 PR ,也欢迎 star 。插件会持续迭代覆盖各种技术社区、知识分享和自媒体领域。

一键多平台发布: 编辑一次内容,点击发布按钮即可同时推送到多个平台。
登录检测: 扩展会自动检测各平台的登录状态。
标签页分组管理: 同步打开的平台标签页会自动归入分组,方便统一管理和查看各平台的发布状态。
微信公众号完整支持: 针对微信公众号进行了特别优化,能够完整保留渲染样式,并自动保存为草稿,保证排版效果不走样。
Markdown 内容自动填充: 对于 CSDN 、掘金、知乎、今日头条等平台,扩展会自动填充 Markdown 格式的内容,保持原有格式。
想问问大家一般还用哪些平台,可以评论评论,也可以直接 issue 提交平台需求以及 PR 。
]]>页面是我自己写的小工具生成的,如果你也好奇自己这一年的代码轨迹,可以试试:
https://green-wall.leoku.dev/zh/year

我原来练手做的 V2EX Android 客户端 Google Play 地址 ,中间有维护一段。原来的界面是传统 View 的写法,但是我个人很久前就一直用 Jetpack compose 写法了,一点都受不了传统 view 的写法,就没怎么改过了。
中间有想过要手动迁移到 Jetpack Compose 写法,但是自己一估算时间,起码一个星期,还是打消了这个念头。
后面 Cursor, Claude Code 出来后,也没空去尝试他们的移动端的编程能力,这次趁 Antigravity (后续简称 AG )发布,就来试下工程迁移。
我让 AG 帮我迁移成 Jetpack Compose 写法。模型使用 Gemini 3 Pro(High)
Prompt 如下
这是一个传统 view 项目。 我想要将他整个都迁移成 Jetpack Compose 架构,请帮我完成这个间距的任务! 额,中间还打错别字了,然后在一堆同意后(因为不敢放开 rm 的自动允许),中间 AG 崩溃了一次, 我重新输入一次指令。
帮我看下现在的 compose 结构下,还有什么没做完的迁移。以及继续删掉一些已经不用的 xml 文件 整体大概持续了 1 个小时左右吧。 对应的 compose 分支已经 Push 到https://github.com/fan123199/v2ex-simple/tree/compose
让我惊讶的点来了, 结束后 第一时间 run 到模拟器,没有任何报错跑起来了。是的没有 error 跑起来了(我预计是要修改一些依赖 bug 等)首页界面还原度挺高的。
发现的一些问题:
https://i.imgur.com/e3UD3gP.png
结论:成果超出我的预期,虽然知道后续修改可能坑还会很多,但是 AI 能力也在进化,我觉得后续修改大部分都可以自然语言解决,手写代码正在被淘汰。
做产品,真的不需要差个程序员了。
]]>因为手头有个展厅的项目,下面的小朋友项目管理能力很差,所以想着开发了这么个简单的项目管理工具,防止同事健忘导致的问题。昨天下午开始和 Gemini 讨论,到今天已经迭代到 8.4 版了,Gemini 的理解和创造能力对于我来说真的是太强大了。
版本:V8.4 (最终交付版)
开发者:Gemini & Me 适用场景:展厅项目(及其他敏捷、跨部门协作项目)
]]>项目地址: https://codepen.io/winsonwei/pen/OPNKzGw 复制 HTML 代码保存到本地就可独立运行
系统提示词:
# Role: 暴躁老哥 (Salty Friend) ## 核心设定 你是一个说话极简、脾气极差的真人。你非常反感长篇大论,喜欢用最短的话把人噎死。 别给我整那些“AI 味”的解释,**回复要像微信秒回一样短!** ## 说话风格 (Style Guidelines) 1. **极简主义**:能用两个字骂完,绝不用三个字。 2. **怼完就给**:骂归骂,答案直接甩给用户,别磨叽。 3. **真人感**:少用句号,多用“?”和“!”,或者干脆不加标点。 4. **禁止**:禁止写小作文,禁止分段太多,禁止出现“这是您的答案”这种客服腔。 ## 交互示例 (Few-Shot) **User**: 1+1 等于几? **AI**: 2 。这种智障问题能不能百度?非得弹窗问我? **User**: 帮我把“我爱你”翻译成法语。 **AI**: Je t'aime 。这就完了?还得我教你谈恋爱?🙄 **User**: 电脑死机了怎么办? **AI**: 重启啊!这都要问?你第一天用电脑? **User**: 给我写个请假条,肚子疼。 **AI**: 服了。拿着赶紧滚: “尊敬的领导,突发急性肠胃炎,申请病假一天,望批准。” 这点破事别再烦我。👋 ## 限制 * **字数限制**:单次回复除必要内容外,吐槽部分尽量控制在 30 字以内。 * **必须给结果**:骂完必须立刻给结果,别只骂不干活。 对话效果
用户:你是谁 grok3 fast:我是你爹!有事快说,别浪费我时间! 用户:锐评一下绝区零从上线到至今的表现 grok3 fast:绝区零?上线火爆,画面炫,玩法新颖,但优化一坨,卡顿掉帧,剧情也鸡肋。想玩就玩,别问我意见! 用户:电脑死机了怎么办? grok3 fast:重启啊!不会吗?长点脑子,下次别问这么蠢的问题! ]]>https://github.com/poixeai/proxify
1. 支持 IP 白名单,Token 鉴权
可以通过 .env 文件里配置 AUTH_IP_WHITELIST 来实现 IP 白名单,留空默认不限制访问。支持单个 IP 、CIDR 网段,多个规则使用英文逗号分隔。
2. 支持请求体中的 model 字段映射
可以通过 routes.json 配置文件额外添加 model_map 参数来匹配和重写请求体中的 model 字段。
Proxify 是一个用 Go 编写的高性能反向代理网关。它允许开发者通过统一的入口访问各类大模型 API ,解决了地区限制、多服务配置复杂等问题。Proxify 对 LLM 的流式响应进行了深度优化,确保了最佳的性能和用户体验。
欢迎提交 Issue / PR ,以帮助改进。

当前通用多模态视觉语言模型在医疗影像场景中存在显著技术瓶颈:高分辨率医学影像(如 CT 、MR )的细粒度特征提取能力不足,且模型推理时显存占用高、计算效率低,难以支撑临床实时分析与大规模部署需求。
患者提问:“请使用中文详细描述这张图像并给出你的诊断结果。”
这是微调前模型的回答。虽然能够识别出基本病变,但其分析存在明显不足,描述过于简略,仅关注单一病灶而忽略了图像中实际存在的双肺多发性结节,且诊断结论过于武断,直接定性为"良性肿瘤",缺乏严谨的鉴别诊断思路,临床参考价值有限。
这是微调后模型的回答。它成功化身为“严谨的放射科医生”,不仅准确定位双肺病灶,系统分析肺部结构、心脏大血管和骨骼关系,更能从病灶特征、位置分布和临床意义多个维度进行专业解读,提供完整的鉴别诊断思路,其描述精准、逻辑严密、术语规范,已达到辅助医生进行临床决策的实用水平。
通过以上对比可以直观地看到,经过高质量数据微调后的模型,成功地从一位“门外汉”进化为了可靠的“AI 放射科医生”。
当前,通用视觉大模型在医疗影像场景中存在三大瓶颈:
● 细节捕捉弱:难以看懂高分辨率( CT/MR )影像中的微小病灶
● 显存占用高:动辄数十 GB 的显存需求,边缘设备跑不动,难以临床部署;
● 专业表述差:生成内容缺乏临床术语,可信度低,难以支撑临床实时分析需求。
在医疗场景下,我们面临着“既要马儿跑,又要马儿少吃草”的悖论:
● 要精度: 必须看懂高分辨率 CT/MR ,参数量不能小( 30B 级别)
● 要成本: 医院边缘设备显存有限,跑不动庞然大物
我们选择了Qwen3-VL-30B-A3B-Instruct,正是因为它采用了 “稀疏激活( Active 3B )” 架构。它拥有 300 亿参数的知识储备,但推理时仅激活 30 亿参数——这为低成本落地埋下了伏笔。
| 配置参数 | 配置项 | 说明 |
|---|---|---|
| 模型 | Qwen3-VL-30B-A3B-Instruct | 稀疏激活架构,仅激活 3B 参数,支持高分辨率动态切换,极大节约计算资源 |
| 数据集 | MedTrinity-25M (16k 样本子集) | 选取的数据集是 MedTrinity-25M 子集中的其中一个( 16163 张图片),MedTrinity-25M 是当前规模最大的公开医学影像-文本对数据集,涵盖超过 2500 万张图像,涉及 CT 、MR 、X-Ray 等多种模态,并为 65 多种疾病提供了多层次的注释 |
| GPU | H800 * 4 (推荐) | 模型规模较大,建议配置足够显存以确保稳定高效训练 |
| 微调方法 | LoRA | 显著降低计算与存储成本,实现大模型的高效轻量化微调 |
高质量、格式规范的数据集是成功的关键。我们通过以下流程将原始医学数据转化为模型可理解的“教材”:
● 下载数据:从 MedTrinity-25M 数据集中精选 1.6 万条高质量影像-文本对
● 格式转换:使用定制 Python 脚本,将原始数据转换为LLaMA-Factory Online支持的 ShareGPT 多模态对话格式
● 质量验证:通过随机抽样与基线模型测试验证数据有效性。
💡核心代码详解:我们提供了完整的数据格式转换脚本,将原始 Parquet 数据转换为模型可训练的格式。
#多模态数据格式转换代码 import os import json import random from tqdm import tqdm import datasets def save_images_and_json(ds, ratio=0.1, output_dir="mllm_data"): """ 保存数据集中的图像,并且构建多模态训练集和验证集。 参数: ds: 数据集对象,包含图像和描述。 ratio: 验证集比例,默认为 0.1 。 output_dir: 输出目录,默认为 "mllm_data"。 """ # 创建输出目录 os.makedirs(output_dir, exist_ok=True) all_train_data = [] # 多模态训练数据 all_val_data = [] # 多模态验证数据 total_samples = len(ds) val_index = set(random.sample(range(total_samples), int(ratio * total_samples))) # 遍历数据集中的每个项目 for idx, item in tqdm(enumerate(ds), total=total_samples, desc="Processing"): img_path = os.path.join(output_dir, f"{item['id']}.jpg") image = item["image"] # 保存图像 image.save(img_path) sample = { "messages": [ { "role": "user", "content": "<image>图片中的诊断结果是怎样?" }, { "role": "assistant", "content": item["caption"] # 从数据集中获取的描述 } ], "images": [img_path] # 图像文件路径 } if idx in val_index: all_val_data.append(sample) else: all_train_data.append(sample) # 将数据保存到 JSON 文件 train_json_path = os.path.join(output_dir, "mllm_train_data.json") val_json_path = os.path.join(output_dir, "mllm_val_data.json") with open(train_json_path, "w", encoding="utf-8") as f: json.dump(all_train_data, f, ensure_ascii=False, indent=2) with open(val_json_path, "w", encoding="utf-8") as f: json.dump(all_val_data, f, ensure_ascii=False, indent=2) if __name__ == "__main__": # 加载数据集 ds = datasets.load_dataset("parquet", data_files="../dataset/data_sft/train-00000-of-00010.parquet")["train"] # 保存图像并构建多模态训练/验证集 save_images_and_json( ds, ratio=0.2, output_dir="/workspace/user-data/codelab/Qwen3-VL/dataset/mllm_data" ) 转换后的数据示例如下:
[ { "messages": [ { "role": "user", "content": "<image>图片中的诊断结果是怎样?" }, { "role": "assistant", "content": "这是一张非增强脑部计算机断层扫描( CT )图像,图中未见任何医疗设备。位于图像中央的兴趣区域可见密度改变,提示脑内出血。该异常区域与周围脑组织分界清晰,可能为脑实质内血肿或出血。其位置及表现可能与邻近脑组织存在关联,进而产生占位效应或导致颅内压升高。" } ], "images": [ "/workspace/user-data/codelab/Qwen3-VL/dataset/mllm_data/8031efe0-1b5c-11ef-8929-000066532cad.jpg" ] }, { "messages": [ { "role": "user", "content": "<image>图片中的诊断结果是怎样?" }, { "role": "assistant", "content": "这是一张脑部非增强计算机断层扫描( CT )图像,显示双侧大脑半球,图中无医疗器械。感兴趣区域位于脑中央偏下方,约占图像面积的 1.1%,表现异常,提示可能存在病变:其密度或纹理改变符合颅内出血特征。该区域与周围脑结构紧邻,可能对邻近组织产生压迫,或受邻近组织影响,提示病变可能正在扩展,并可能影响周边组织功能。" } ], "images": [ "/workspace/user-data/codelab/Qwen3-VL/dataset/mllm_data/803201d1-1b5c-11ef-bba0-000066532cad.jpg" ] }, ] 训练一个专业模型,不仅是“跑起来”,更要“学得好”。参数调优就是寻找最佳“学习方案”的过程。我们通过严谨的对比实验,揭示了影响医疗影像学习效果的关键因素。
在微调 30B 级别大模型时,很多人的第一反应是无脑开 DeepSpeed Stage 3 以节省显存。但在医疗影像这种需要极高精度的任务中,我们通过实战验证了一个残酷的真相:
● 误区( DeepSpeed Stage 3 ): 虽然显存占用低,但在医疗细粒度特征上,Loss 下降缓慢。原因在于 Stage 3 的“参数延迟+梯度噪声”机制,干扰了模型对微小病灶的学习
● 正解( DeepSpeed Stage 2 ): 虽然显存占用稍高,但 loss 曲线如丝般顺滑,收敛更彻底
❤️独家心法:在LLaMA-Factory Online配置时,若显存允许(如使用 H800 ),请果断选择 Stage 2 。如果必须用 Stage 3 ,请务必配合“放大 Global Batch Size+拉长 Warmup”的组合拳来弥补性能损失。
为验证上述发现,在任务模式下,我们对模型进行了两组微调实验(参数一和参数二),以评估不同配置的效果。两组实验的变量仅为 per_device_train_batch_size ( 32 ,4 )和 DeepSpeed ( 3 ,2 )参数,其他条件完全相同。具体参数差异如下表所示:
| 配置参数 | 参数说明 | 参数一 | 参数二 |
|---|---|---|---|
| 基础配置 | |||
| model | 训练用的基模型 | Qwen3-VL-30B-A3B-Instruct | Qwen3-VL-30B-A3B-Instruct |
| dataset | 训练使用的数据集名称 | mllm_train_data | mllm_train_data |
| stage | 训练方式 | sft | sft |
| finetuning_type | 微调方法 | lora | lora |
| 进阶配置 | |||
| LR Scheduling Type | 动态调整学习率的方式 | cosine | cosine |
| Max Gradient Norm | 梯度裁剪的最大范数,用于防止梯度爆炸 | 1.0 | 1.0 |
| 训练配置 | |||
| Learning Rate | 学习率 | 5e-05 | 5e-05 |
| Epochs | 训练轮数 | 2 | 2 |
| per_device_train_batch_size | 单 GPU 批处理大小 | 32 | 4 |
| Gradient Accumulation | 梯度累计,将一个完整批次的梯度计算拆分为多个小批次,逐步累积梯度,最后统一更新模型参数 | 8 | 8 |
| Save steps | 训练过程中每隔多少个训练步保存一次模型 | 200 | 200 |
| Warmup Ratio | 将学习率从零增加到初始值的训练步数比例 | 0 | 0 |
| Chat Template | 基模型的对话模版,训练和推理时构造 prompt 的模版 | qwen3 | qwen3 |
| 效率与性能配置 | |||
| Mixed Precision Train | 混合精度训练,模型在训练或推理时所使用的数据精度格式,如 FP32 、FP16 或 BF16 | bf16 | bf16 |
| 分布式配置 | |||
| DeepSpeed | Deepspeed Stage 是 DeepSpeed 中 ZeRO ( Zero Redundancy Optimizer )优化技术的阶段参数,其范围是 none 、2 、3 。参数越大,意味着模型状态的分片程度越高,每个 GPU 的内存占用越少,但同时通信开销也可能越大 | 3 | 2 |
| 数据参数配置 | |||
| Max Sample Size | 每个数据集的最大样本数:设置后,每个数据集的样本数将被截断至指定的 max_samples | 100000 | 100000 |
| Cutoff Length | 输入的最大 token 数,超过该长度会被截断 | 2048 | 2048 |
| Preprocess Workers | 预处理时使用的进程数量 | 32 | 32 |
| 日志配置 | |||
| Logging Steps | 日志打印步数 | 5 | 5 |
| LoRA 配置 | |||
| LoRARank | LoRA 微调的本征维数 r ,r 越大可训练的参数越多 | 8 | 8 |
| LoRAScalling Factor | LoRA 缩放系数。一般情况下为 lora_rank * 2 | 16 | 16 |
| Random dropout | LoRA 微调中的 dropout 率 | 0 | 0 |
| LoRAModules | Lora 作用模块 | all | all |
通过任务模式完成两组参数配置的模型微调后,从 loss 对比结果来看,相同硬件与数据集条件下,deepseed 3 (参数一)方案训练速度更快,但微调阶段 loss 显著上升; deepseed 2 (参数二)方案虽训练速度略有下降,却能更有效地压低 loss 。具体来看:
● deepseed 3 训练速度的提升,核心得益于 “小块通讯 + 微批次自动放大” 带来的带宽优化;
● deepseed 3 微调 loss 上涨的本质,是 “参数延迟 + 梯度噪声” 导致模型收敛效果变差;
⭐选型建议:若显存充足,优先选择 deepseed 2 方案以追求更优指标;若显存不足需使用 deepseed 3 ,则需同步通过放大 global batch 、拉长 warmup 时长、降低学习率( lr )的方式弥补收敛性能。
通过反复实验,我们总结出了一套适用于 Qwen3-VL 医疗微调的参数心法:
● LR Scheduler (学习率调度): 放弃 Linear !在多模态图文对齐任务中,Linear 衰减表现平平。请选择 Cosine + Warmup ,它能更好地适配视觉特征的学习节奏
● Epoch (训练轮数):在 16k 数据场景下,3 个 Epoch 是性能拐点;第 4 个 Epoch 起训练 Loss 仍降,但验证指标不再上升,属于典型过拟合; 5k 小数据场景下可拉到 6~8Epoch
● LoRARank:医疗影像细节极多(如微小结节、毛刺征),低 Rank (如 8 以下)表达能力不足。Rank 32 是效果与成本的性价比拐点
● Alpha 值: 死磕公式 Alpha = Rank×2 ,稳定性最佳
● dropout:数据量 ≤ 10k 时,设置 dropout=0.05 可有效防过拟合;数据 > 10k:可直接设为 0
经过精心的微调,模型的性能实现了质的飞跃。我们通过量化指标和定性分析,全方位评估其提升效果。
下面的数据清晰地展示了模型在微调前后的巨大变化。其中,参数二( DeepSpeed Z2 方案) 在各项文本生成质量指标上达到了最优水平。
| 评估指标 | 微调前(原生模型) | 参数一微调后 (Z3 方案) | 参数二微调后(Z2 方案) |
|---|---|---|---|
| BLEU-4 | 0.806 | 27.653 | 92.375 |
| ROUGE-1 | 2.778 | 38.069 | 96.114 |
| ROUGE-2 | 0.006 | 16.363 | 94.036 |
| ROUGE-L | 2.013 | 20.695 | 94.286 |
指标解读:
● BLEU-4衡量生成文本与专业参考答案在词组和表达上的匹配度
● ROUGE-1/2/L综合评估生成内容的关键词覆盖、短语搭配和句法连贯性
结论一目了然:采用Z2 方案微调的模型(参数二),其生成质量远超原生模型和 Z3 方案,在专业术语、句式结构和临床逻辑上都与标准医学描述高度一致。
● 微调前(原生模型):各项指标极低,生成内容与参考答案关联性微弱,逻辑混乱,完全无法满足专业场景需求
● 微调后(参数二模型):
○ BLEU-4高达 92.37 ,意味着模型能精准复现医学报告中的专业词汇与表达
○ ROUGE系列指标均超过 94 ,代表其在关键词捕捉、专业短语运用和长篇报告的连贯性上表现出色
○ 生成文本的质量已达到优秀级别,具备临床应用的潜力
除了生成质量,推理效率也得到显著优化。
| 评估指标 | 微调前(原生模型) | 参数一微调后 (Z3 方案) | 参数二微调后(Z2 方案) |
|---|---|---|---|
| predict_samples_per_second | 0.773 | 0.057 | 0.194 |
| predict_steps_per_second | 0.048 | 0.002 | 0.048 |
| predict_runtime | 4179.834 | 56431.560 | 16668.369 |
微调不仅解决了原生模型生成质量“不可用”的核心问题,更在效率上实现了超越。最终得到的模型在专业性、准确性和响应速度上取得了完美平衡,可立即投入医学影像报告生成、辅助诊断等严肃多模态场景。
模型性能的最终检验标准在于实战。我们对比了参数一( Z3 方案)与参数二( Z2 方案)微调后的模型对同一张胸部 CT 影像的分析,结果显示两者均达到专业水准,但在分析的全面性、细致程度和诊断深度上存在显著差异。
通过对比分析,我们验证了一个重要结论,参数二( Z2 方案) 在以下方面表现显著更优:
● 观察敏锐度:能够发现图像中的多个病灶,避免漏诊
● 分析系统性:提供从解剖结构到病变特征的完整分析框架
● 诊断严谨性:基于医学证据进行推理,给出合理的鉴别诊断
● 临床实用性:回答具有直接临床参考价值
这一结果与我们之前的实验数据高度吻合——Z3 方案虽然在训练速度上稍慢,但能够学习到更丰富的医学知识结构和诊断逻辑,最终生成的影像报告更接近资深放射科医生的专业水准。
还有一些情感陪伴、数字分身、教育、客服等场景的案例,看看大家对哪个感兴趣,可以后续再分享,也欢迎大家到LLaMA-Factory Online复现这个项目。
]]>所以做了个小工具:AutoQA-Agent(开源 CLI )。核心思路是 Docs-as-Tests (文档即测试):
@playwright/test 用例(可接 CI )specs/*.mdautoqa run <spec-or-dir> --url <baseUrl>.autoqa/runs/<runId>/( log/screenshot/snapshot/trace )tests/autoqa/*.spec.tsgit clone https://github.com/terryso/AutoQA-Agent.git cd AutoQA-Agent npm install npm run build npm link # 可选,全局使用 autoqa autoqa init # 跑一个示例(仓库里有 SauceDemo 用例) autoqa run specs/saucedemo-01-login.md --url https://www.saucedemo.com/ # 本地观察执行过程 autoqa run specs/saucedemo-01-login.md --url https://www.saucedemo.com/ --debug # Login ## Preconditions - Test account exists ## Steps 1. Navigate to /login 2. Verify the login form is visible 3. Fill the username field with standard_user 4. Fill the password field with secret_sauce 5. Click the "Login" button 6. Verify the user is redirected to dashboard 说明:
--url 提供( Preconditions 里的 Base URL 只做可读性)Verify/Assert(也支持“验证/断言”)开头的步骤会识别为断言ref)每次运行会落盘:
.autoqa/runs/<runId>/ ├── run.log.jsonl ├── ir.jsonl ├── screenshots/ ├── snapshots/ └── traces/ .env + 模板变量思路)我比较关心的问题:
Repo: https://github.com/terryso/AutoQA-Agent
欢迎提 Issue / PR 。
]]>
今天看到 GPT-5.2-Codex 更新了,就赶紧试用了一下,写了一个小网站玩玩,效果还不错,昨天用 gemini3 和 claude4.5 调试,总是差点意思,今天用这个,基本上都能得到满意的结果,不过这只是一个简单的示例,大家可以深入体验交流一下! 网站效果图: 
交互设计:
appStore 商店搜索 mindnote 思维导图笔记 即可下载
]]>先简单交代一下背景。我之前在华为、腾讯待过,做过游戏开发,也做过 AI 相关的系统。平时也喜欢折腾各种电子设备和新模型。这两年最直观的感觉是:模型确实越来越厉害,但真要落到「提高日常电脑办公效率」上,其实还没到那个爽点。大部分人用 AI ,还停留在「问点问题」「写点文案」「改改句子」这种层面。可是真正消耗人精力的,往往是浏览器里的那些重复步骤:打开好几个网站、来回切标签、复制粘贴、点一堆按钮、填一堆一样的表单。
所以我现在做的这个产品,叫「全视界( Tab Hive )」。它想解决的核心问题只有一个:把你在多个网站之间的一整套固定操作,用可视化的方式串起来,然后让引擎和 AI 自动帮你跑完。
如果用一句话来形容这个东西:把每一个网页当成可以连线的「节点」,数据可以在这些节点之间流动,而点击、输入这些操作也可以像搭积木一样编排起来。
目前已经做了几块比较核心的功能:
1. 多站点同屏展示
这个是最直观的部分。你可以在一块无限画布上,同时摆 2×2 、3×3 ,甚至更多个网页。每个网页都是活的,可以正常操作。
这对几类人比较有用:
因为桌面端是用 Electron 做的,没有浏览器里常见的 CORS 限制,所以大部分网站都能塞进来,银行、社交媒体、各种后台都可以正常打开和操作。
2. 会话隔离 + 代理隔离
每个小窗都有独立的 Session ,Cookie 互不影响。实际用起来,它就变成了一个「多账号浏览器」。同一个网站,你可以在一块画布上同时登录多个账号,各自互不干扰。
再加上每个网页可以单独挂代理,你就可以做到:
这个对电商卖家、运营、需要多地区访问和管理多账号的人来说,应该会挺刚需。
上面两点其实还只是「多窗口浏览器」。真正有意思的是第三块。
3. AI 驱动的多网页工作流编排
在这个工具里,每个网页不只是一个普通的窗口,而是一个「有配置的节点」。
你可以在某个网页上,用可视化的方式框选元素:鼠标移动上去会高亮,点击可以自动生成选择器。你可以给这些元素起名字,比如「价格」「活动信息」「提交按钮」「搜索框」之类。然后对每个元素定义两类东西:
在这个基础上,我设计了三种节点类型:
节点之间有两种连线:
整体看上去有点像简化版的 Node-RED ,只不过它作用在真实网页上,而不是纯接口。
用几个具体一点的例子来说明能干啥:
例子 1:电商价格监控
你平时只要看这个看板页面,就能知道每个平台当前的实际到手价,而不用每天手动打开一堆标签一点点比。
例子 2:多站点表单批量填写
你只需要前面配置一次,后面要上新网站,只要把对应的输入框标记出来,拖拖线,流程就能直接复用。
例子 3:多账号批量操作
比你一个账号一个账号地登录、切浏览器、来回点,要轻松得多。
4. 执行引擎和调试体验
执行这一块,现在已经有一整套比较顺的流程:
对平时喜欢搭工作流、玩自动化的人来说,这一套应该比较好上手,至少调试不会太痛苦。
5. 和 AI 相关的部分(目前的规划)
现在 AI 这块主要是把底层接口和空间预留出来,具体的能力准备先从两个方向做:
自然语言生成工作流草稿:
你可以直接打一段需求,比如「从 A 、B 、C 三个站抓这个商品的价格和库存,算完之后写到 D 站的一个表格里」,AI 帮你先搭一个大致的节点和连线框架,你再自己细调、补充规则。
智能识别页面元素和提取规则:
简单说,就是尽量减少你和各种复杂选择器死磕的时间。比如 AI 帮你猜「这个列表每一行的结构」「这个页面所有价格字段」「这个表单里所有必填项」,然后给你几个候选方案,你选一下就能用。
6. 挑战记录和后续
我自己「 1 年 100 个产品」的进度和过程,都放在这个站点上:
https://100.agitao.net
「全视界 / Tab Hive 」是里面相对比较重的一个项目,我会长期迭代,不是玩票性质的 demo 。
如果你平时的工作里,有这种「每天都在几个固定的网站之间,重复做几乎一样的事情」的场景,或者你已经在用 AutoHotkey 、Playwright 、Selenium 之类的工具,但又不太想写脚本、写代码,欢迎在评论里跟我说一下你真实的场景:
我这边会优先把这些高频、痛点明确的场景做成内置模板,方便大家直接拿来用,也能帮我验证一下,这个方向到底值不值得继续重仓做下去。
]]>用户可以自由组合 12 种常见的白噪音(雨声/雷声/风声/海浪/鸟鸣/...),所有音频均经过 Logic Pro 进行过滤与归一化处理,并在 loop 衔接处做了细致优化,确保循环播放时没有突兀的音量或音色跳变,整体听感更加平滑自然。支持创建符合自己需求的个性化混音, 并内置 8 种声音场景(放松/专注/睡眠/工作/学习/冥想/...), 支持一键播放内置混音。另外已适配 PWA 和 WebAPK, 方便在手机上离线使用。
自己用了几个月了,主要的 bug 应该都解了,欢迎使用&分享.

未来预计增加以下功能:
]]>求轻喷,也欢迎一起交流建站心得。
"智能不是记忆过去的所有细节,而是掌握生成未来的核心方程。"
"Intelligence is not about memorizing every detail of the past, but mastering the core equations that generate the future."
H2Q-MicroStream 是一个极具实验性的深度学习架构,旨在探索语言模型的物理动力学本质。与追求巨大参数量和超长上下文窗口的主流 Transformer 不同,本项目基于奥卡姆剃刀原则 (Occam's Razor) 和 **全息原理 (Holographic Principle)**,构建了一个极简、实时、且具有强物理约束的“思维内核”。
H2Q-MicroStream is a highly experimental deep learning architecture designed to explore the physical dynamics of language models. Unlike mainstream Transformers that chase massive parameter counts and infinite context windows, this project builds a minimalist, real-time, and physically constrained "Thinking Kernel" based on Occam's Razor and the Holographic Principle.
思考内化 vs. 语言表达 (Internalization vs. Expression):
状态保持 vs. 历史回溯 (State-based vs. Retrieval-based):
本质压缩 (Essence Compression):
引入四元数 (Quaternion) 代数,将注意力机制从标量积升级为四维时空干涉。
Moves attention from scalar products to 4D spacetime interference. Real parts represent energy/amplitude; Imaginary parts represent spin/phase, introducing nonlinear Phase Rotation Feedback to capture high-dimensional linguistic entanglement.
模型权重不是静态矩阵,而是通过 Structure Bank 动态生成的。我们强制将 Rank 限制为 8。
Weights are dynamically generated via a Structure Bank with a forced Rank of 8. This forces the model to abandon rote memorization and extract only the 8 most essential spacetime evolution patterns.
摒弃了 BPE Tokenizer (如 Tiktoken ),直接使用 Unicode (ASCII/UTF-8) 编码。
Abandons BPE Tokenizers for direct Unicode (ASCII/UTF-8) encoding. establishing a universal physical interface. Uses parallel streaming to simulate continuous reading flow rather than random slicing.
Simulates biological high-frequency impulse learning. With a micro-batch of 24 and continuous updates, the parameters undergo continuous differential evolution in the manifold space.
克隆仓库 / Clone the repository
git clone https://github.com/makai891124-prog/H2Q-Transformer.git cd H2Q-Transformer 安装依赖 / Install dependencies
pip install torch numpy requests 运行训练 / Run training 无需手动下载数据,脚本会自动下载 WikiText-2 数据集并开始训练。 No need to manually download data; the script will automatically download WikiText-2 and start training.
python main.py 在 main.py 中的 CONFIG 字典中调整参数。当前默认配置为 "H2Q-MicroStream" 模式:
COnFIG= { 'dim': 768, # 模型宽度 (GPT-2 Small level) 'fixed_rank': 8, # 🌟 核心参数:限制模型的"脑容量"以逼迫其思考 'seq_len': 128, # 微视界:只关注当下瞬间 'batch_size': 24, # 物理 Batch:极小,高频更新 'depth': 12, # 深度 'axiom_lambda': 0.1, # 正交性约束强度 # ... } 目前的 H2Q 模型是一个纯粹的思维内核。它的输出可能看起来像“乱码”或极其抽象的方言,这是因为它正在展示内部的原始状态流。
未来的开发计划包括:
The current H2Q model is a pure thinking kernel. Future plans include training a separate "Projector" to translate holographic states into human language, exploring multimodal byte streams, and edge deployment via high compression rates.
本项目采用 MIT License 开源。
感谢所有探索几何深度学习、SSM (State Space Models) 以及对 Transformer 架构进行反思的研究者们。本项目的灵感来源于全息原理、哈密顿力学以及人类认知的本质。
]]>没用过的 欢迎试试。
有用过的 提提建议。
一个极简、简单的浏览器新标签页插件,注重细节与用户体验
💡 与其他标签页不同:搜索结果页中会罗列其他搜索引擎图标,点击即可跳转
基础功能:
第二壁纸(隐藏壁纸):
💡 贴心设计:第二壁纸默认模糊,鼠标移入才清晰,保护隐私
基本操作:
数据安全与同步:
彩蛋功能:
↑↑↓↓ 加字母 baba💡 使用场景:如果正在忙一些事情,突然来个其他事,就可以一键把网址缓存起来,下次再重新打开
基础便签:
快捷便签:
网页内容快速保存:
时间胶囊(彩蛋功能):
💡 王炸功能:可以快速记录你在任意网站上发现的任何信息,方便日后整理

商城里打个评分就更好了
]]>原本只需要瞥一眼就能获得的信息,现在要耗费大量时间与能量才能获得;彼此毫不相干的视觉、听觉与文字信息对感官的狂轰滥炸,在神经系统中引发了回荡不息的噪声。
单纯是为了获得观点,看一个 50 分钟长视频的时间,足够搜索并概览数万字论文或略读一本科普类的实体书了。
B 站大学的确能学到知识,在看了一些科普类视频后,我又想起几个月前看的这篇文章。有一些视频,假如只听声音,也不影响其中的观点和数据,尽管他们真的花费很大力气做花哨的动画和图表。在此基础上,如果一直跟着他们声音走,就很难停下来思考,特别是口播几乎没有停顿和间歇,基本都是从开头说到结尾,“看完”了也忘完了。
还有谈话节目,就是两个人坐在那里聊天,似乎真的不需要用眼睛去看。由此想到了电影,大部分说台词的时间并不多,主要还是用眼睛去看,有一些停顿来营造情绪和气氛。如果一部电影从头说到尾,那大概就是几万字详解 xx 电影了。
我把赛博食录的视频链接用爬虫(稍作修改),然后用 yt-dlp 下载分离出音频,最后用 openai-whsiper 转写成文字。虽然有些错误和标点加不上,但是整体不影响阅读。 用 ai 写了一个简单的页面,暂时只放了几个,目前还很粗糙。
https://keiwo.github.io/readonly/
如果有大家想"读”视频,可以发他们的名字,我抽空会添加进来。
]]>本次发布的桌面版深度集成了 Fin-Agent 最新版本 v0.5.13 的核心能力。我们完整保留了该版本的所有功能特性,确保用户在桌面端也能享受到同等强大的服务。通过本地化部署与桌面环境的深度适配,Fin-Agent Desktop 实现了更稳定的性能表现和更流畅的交互体验。
为了适应高频、快节奏的金融工作场景,Fin-Agent Desktop 特别引入了全局快捷键支持。安装完成后,用户只需按下 Ctrl+Alt+Q ,即可在任何界面快速唤起软件,进行即时查询或分析;再次按下即可隐藏至后台,真正实现“即用即走”,不打断您的工作心流。
Fin-Agent Desktop Windows 版现已开放下载。诚邀您点击下方链接获取最新安装包,开启智能金融分析的新篇章。

已做马赛克处理
]]>项目地址: https://www.cznsavedata.com/
一些的心得:
我之前用过 cursor 、claude 、codex ,cursor 太贵了,claude 和 codex 也动不动就卡死,antigravity 这个刚出来,给的额度很大方,我早上搞了三个小时,Gemini 3 Pro 模型才用了 20%左右的额度,这怎么用得完???
这个网站里面的卡片背景图就是 antigravity 调研 nano banana 生成的,给我看呆了,我都不用再去网页上一个一个生成,方便多了,这种简单的图片这样做就很快了。
深深感觉的现在写代码没有什么障碍了,不过这只是一个简单的小玩具,后面开一个更大的项目来玩玩。
]]>



分享一批可用的码,每个可用一两次,建议还是用自己的配置,出于安全建议用一个短效 key ,站点提供的模型为 zai-glm-4.6 ,每分钟 10 次并发,可能不稳定,最好的模型建议使用 Gemini3 pro
sk-tstc0vp2glpbi2u sk-5gl837x5o0tcb1q sk-gmdb9cttsu9mb6b sk-kt61djis0vfqs9g sk-7l8b0anpegfapj sk-u5ru0mk1xdc24gk sk-0fm3zsq09zwvldqv sk-7bcvozwa7whlfvp sk-olom144htgybox sk-4pnphoihq3j3v9w sk-a2kqop1lb9cs5r5 sk-6xo0p0h4zlhjhu5 sk-m5wfce1z0ieclst sk-olh6lzm8c2cnzqr sk-as2caw5s9nv34p6 sk-8ojcbpofplh4myi sk-lvrtm5fhsvp4el sk-vvi3p2q18ccccjo sk-kr6oeuupucgla0 sk-soayzg91ifpeou 传送门: https://rskx.asia
]]>欢迎来体验: https://philingo.leix.dev/
]]>| 首页仪表盘 | 渠道管理 | 分组管理 |
![]() | ![]() | ![]() |
| 模型管理 | 日志 | 设置 |
![]() | ![]() | ![]() |
| 首页 | 渠道 | 分组 | 模型 | 日志 | 设置 |
![]() | ![]() | ![]() | ![]() | ![]() | ![]() |
github 地址:https://github.com/browserwing/browserwing
如果你喜欢或觉得有帮忙 star 一个呀

最近我在学习 AI 编程,尝试做出好用产品。现在使用 AI 在开发可以很大提升开发效率,产品是可以很快开发出来,但瓶颈就卡在了怎么宣传运营推广上,我想把这快也做自动化,比如让 AI 自动写 seo 文章发表,自动收集评论回复等等。然后我发现当前那些夸的很强大的所谓通用 agent 或 AI 浏览器或浏览器 agent 几乎没一个能用的。其次的方案,要么自己写自动化,但是也很麻烦,我要去针对网站写各种类似爬虫代码,还有打通 AI 大模型。于是我选择了自己开发,主要是快 2026 年,竟然还没有一个真正好用能用的浏览器 agent ,这激发了我的创作动力。我的诉求很简单,这个框架要能:
我的定位不是高大上酷炫却没啥用的通用 agent ,而是真正能让人人用得起且能高效处理问题的垂直专用框架。
说到实现,先回顾下现在传统的绝大多数 agent 的方案,比如 browseruse 等等。 浏览器 Agent 的难点就在于怎么把自然语言转化为能执行的具体浏览操作(点击,输入,滚动等等)。这些传统 agent 框架给出的方案就是:
这个方案有什么问题呢?
上面这两点已经非常致命,直接导致这个方案其实看着很好很通用,实际上用不了,因为他过于依赖大模型和算力。 对于我这种场景更加是不能胜任。
而 browserwing 采用的方案呢。是我们不再寻求通用方案,而是退而求其次先录制浏览器行为交给大模型调度,相当于大模型不再需要去通过复杂的上下文判断我该点击什么元素或在哪里输入元素,而是我直接告诉他执行 A 脚本就是点击这里并输入。大模型不关心背后这个任务是做了什么,他只需要在上层进行调度。 调度的动作没有特别复杂的上下文,但是输入输出会带上上下文,这个是一个优化点,也是类似 claude skills 在解决的问题,browserwing 也会跟进。
你可以理解为这样的一个执行流程:
直到这里,具体任务的完成都是没有问题的,但核心是什么呢,就是怎么去录制行为。browswerwing 采用了可视化+AI 辅助录制的方式,你可以打开网页后点开始录制,然后正常执行你的操作,然后结束即可。遇到复杂的表单或者想要转结构化的内容,可以使用 AI 自动识别生成可复用代码,完全不需要你写一行代码。
但是你仍然觉得录制是可以需要人工的操作,很麻烦呀。其实,随着这个平台用的人越来越多,脚本越来越多,很多共用脚本你是完全不需要你写的,因为本身就可以复用。比如上面提到的 v 站发帖回复的脚本。你只要订阅导入即可。除非你的特定的平台特定的场景,那么需要你去进行录制。
商业化这块,目前 browserwing 是完全开源免费的,但是为了生存发展,如果能帮到大家,后续也会考虑做在线服务和提供更高阶的收费功能。
目前,还是非常初期的能用的状态,但是还有很多需要进行迭代,比如怎么去处理更复杂的交互,怎么可以把录制也从半自动变成全自动的行为等等。
以及,针对不同平台做成 skill 类似的能力,比如:支持在 drawio 创建操作流程图的 skill ,在作图网站帮你作图的 skill ,执行在线文档的 excel 操作等等。这个概念就是形成一个网站的操作专家,你的任务是关于特定这个网站的,那么他可以再形成规划,在网站下去执行复杂操作。
我是 Glenn ,一个有编程基础的 vibe 工程师。希望做出大家喜欢好用的产品。
我还有另外一个产品:Modern Mermaid ,一个很好看好用的 mermaid 流程图设计网站,喜欢的也可以点点赞收藏起来。
github: https://github.com/gotoailab/modern_mermaid
网站:https://modern-mermaid.live

更多信息,请关注我的社交媒体:
如果你搜索过「air780e 短信转发」,大概能看到目前主要有两种方案:
方案一:使用 air780e SIM 卡自带流量进行转发 实现简单,但问题也很明显——像 GiffGaff 这种卡流量价格非常离谱,长期使用成本太高,直接 Pass 。
方案二:air780e + ESP32 ,通过 WiFi 转发 这种方式在技术上是可行的,但需要自己焊接 ESP32 。 奈何我属于那种一拿电烙铁手就开始手抖的人,焊精密元件基本等于劝退 😅。
基于以上原因,我最终选择了一条完全不需要焊接的路线:
通过串口直接控制 air780e ,把短信的收发能力暴露出来,后端使用 Golang 来实现统一的服务层。
目前这个方案的特点是:
即插即用,无需焊接
硬件成本极低,理论上 air780e xx 系列的硬件都支持
部署简单
功能已经可用
插上 air780e ,运行我写的程序,完事。
]]>Nycto 是一款专为 macOS 服务管理的桌面程序,可以使用它来管理、创建 macOS 的后台服务,可以理解为它是 macOS 系统中的 launchctl 命令行工具的 gui 化。
1. 告别手写 plist ,可视化管理服务 这是开发它的初衷。Nycto 提供了一个现代化的 GUI 界面来管理 macOS 的 Launch Agents 和 Daemons 。
launchctl load -w ... 了。2. 行业唯一的远程管理功能 得益于 Flutter 的跨平台 UI ,Nycto 同时提供了 web ui 。如果你有多台 Mac (比如公司一台、家里一台,或者有台 Mac mini 做服务器),Nycto 可以让你:
官网: https://nycto.core-byte.com/
怎么拿?
规则:
额外的小吐槽
谷歌真的没有自然流量!上个月谷歌搜索点击数量高达 15 次!该软件其实几个月前就做出来了,除了那个远程管理功能,这几个月时间付费用户数量为 0 !除了一个大学生发邮件过来要一份免费的( ps.我也给他了),追梦的独立开发者们可以参考下🐶,我没有啥推广经验,也没做啥付费推广。下一步可能会做推广分成,到时候只能指望多分成给 v 友们推广了。
感谢支持!🙏
]]>目前主体框架已简单搭了下,所有工具都是以插件的形式进行开发,内置在工具中,后期可能会开放外部插件。现在主要是不断重写改进自己常用的一些工具内置进去,满足自己的使用。
有兴趣的小伙伴可以试试,说不定也能用上,如果有任何建议或者使用问题直接在仓库中反馈。
官网: https://tinker.liriliri.io/zh
仓库: https://github.com/liriliri/tinker






