
1 lynn1su OP 支持的模型比较老旧,比如 minimax-m2.5 和 qwen3 |
2 106npo 8h 16m ago 20 给个虚拟机实例那很不错了 |
3 qwwuyu 8h 16m ago 不值 我已经捐了 20 了 上面的次数是估计次数 实际还是 token 数 |
4 Aicnal 8h 15m ago 有点狗屎,被骗过一次买集群 |
5 qwwuyu 8h 13m ago |
6 qwwuyu 8h 3m ago 额,楼上我也可能理解错了,一次模型一次调用,说的一次提问貌似说的龙虾... |
7 CuteGirl 7h 56m ago 价格还行 就是模型没有使用的欲望 |
8 luoyezhishui 7h 49m ago 只有这两个模型,没有买的欲望 |
9 andyskaura 7h 46m ago 有 deepseek-v4 就好了 |
10 Yinnfeng 7h 45m ago 虽然 minimax-m2.5 和 qwen3 但是有 deepseek-v4 啊。难道还不值 20 么 |
12 Sosocould 7h 43m ago 这家没信用的,趁早拉黑 |
14 jetsung 7h 29m ago 支持 v4 吗?是不是它文案没有更新而已? |
18 kloudmuka 7h 25m ago 可以,现在还在用 qwen3-235B ,很符合我对国企的刻板印象 |
20 K332 7h 23m ago 上一个按次数的 copilot 已经死了,不知道这个按次数的能撑多久 |
21 jetsung 7h 17m ago /v1/models 抓取了一下它的模型列表。有没有 coding 专属入口?也可以测试一下。 ~ APIKEY=sk-xxxx ~ BASEURL=https://api.scnet.cn/api/llm/v1 ~ printf "Get Model List\n\n" && curl -fsSL "$BASEURL/models" -H "Authorization: Bearer $APIKEY" | jq -r ".data[].id" | sort Get Model List DeepSeek-R1-0528 DeepSeek-R1-Distill-Llama-70B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Qwen-7B DeepSeek-V3.2 DeepSeek-V4-Flash DeepSeek-V4-Pro GLM-5.1 Kimi-K2.6 MiniMax-M2.5 OCR Qwen3-235B-A22B Qwen3-235B-A22B-Thinking-2507 Qwen3-30B-A3B Qwen3-30B-A3B-Instruct-2507 Qwen3.6-Flash Qwen3.6-Max Qwen3.6-Plus Qwen3-Embedding-8B QwQ-32B |
22 Sundayz 7h 5m ago “清朝”模型 |
23 jetsung 7h 1m ago https://www.scnet.cn/ac/openapi/doc/2.0/moduleapi/codingplan/subscriptionnotice.html 确实只有 MiniMax-M2.5 和 Qwen3-235B-A22B 两个上古模型。 |
24 frantic 6h 59m ago '国家超算平台'的所属公司我记得是个私企 |
26 ebushicao 6h 11m ago 这种就是做个样子出来骗钱的 |
27 v400127 5h 24m ago 挂羊头卖狗肉,买过,后来麻溜的退款说再见 |