感谢本站网友 寒粥铺、软媒用户1369491 的线索投递!
本站 7 月 30 日消息,阿里通义千问今天(7 月 30 日)在 X 平台发布推文,宣布推出 Qwen3-30B-A3B 非思考模式的更新版本,命名为 Qwen3-30B-A3B-Instruct-2507。
新模型主要提升指令跟随、逻辑推理、文本理解、数学、科学、编程和工具使用等通用能力,官方表示在激活 3B 参数的情况下,性能接近 GPT-4o 和 Qwen3-235B-A22B Non-Thinking。

本站援引官方博文内容,Qwen3-30B-A3B-Instruct-2507 模型的参数总量为 305 亿,但激活参数为 33 亿,非嵌入层数量为 299 亿,网络层数为 48 层,专家数为 128 个,激活专家数为 8 个,上下文长度原生支持 262144 个 tokens。

该模型仅支持非思考模式,在输出中不会生成 块。同时,不再需要指定 enable_thinking=False。官方表示新模型大幅增加了多种语言的长尾知识覆盖,且在主观和开放式任务中与用户偏好更加一致,能够提供更有帮助的回答和更高质量的文本生成。
| Deepseek-V3-0324 | GPT-4o-0327 | Gemini-2.5-Flash 非思考 | Qwen3-235B-A22B 非思考 | Qwen3-30B-A3B 非思考 | Qwen3-30B-A3B-Instruct-2507 | 知识MMLU-Pro81.279.881.175.269.178.4MMLU-Redux90.491.390.689.284.189.3GPQA68.466.978.362.954.870.4SuperGPQA57.351.054.648.242.253.4 推理AIME2546.626.761.624.721.661.3HMMT2527.57.945.810.012.043.0ZebraLogic83.452.657.937.733.290.0LiveBench 2024112566.963.769.162.559.469.0 编程LiveCodeBench v6 (25.02-25.05)45.235.840.132.929.043.2MultiPL-E82.282.777.779.374.683.8Aider-Polyglot55.145.344.059.624.435.6 对齐IFEval82.383.984.383.283.784.7Arena-Hard v2*45.661.958.352.024.869.0创意写作 v381.684.984.680.468.186.0WritingBench74.575.580.577.072.285.5 代理BFCL-v364.766.566.168.058.665.1TAU1-Retail49.660.3#65.265.238.359.1TAU1-Airline32.042.8#48.032.018.040.0TAU2-Retail71.166.7#64.364.931.657.0TAU2-Airline36.042.0#42.536.018.038.0TAU2-Telecom34.029.8#16.924.618.412.3 多语言MultiIF66.570.469.470.270.867.9MMLU-ProX75.876.278.373.265.172.0INCLUDE80.182.183.875.667.871.9PolyMATH32.225.541.927.023.343.1
还没有评论,来说两句吧...