阿里巴巴宣布推出基于Qwen2.5-Max的推理模型QwQ-Max-Preview,并承诺将全面开源QwQ-Max和Qwen2.5-Max系列。这一动作不仅标志着国产大模型在推理能力上的重大突破,更通过“全栈开源+本地化部署”策略,为AI技术的普惠化按下加速键。
根据LiveCodeBench评估,QwQ-Max-Preview的性能与OpenAI的o1-medium相当,且优于DeepSeek R1。其核心优势有3个 :
通过动态计算优化和混合精度训练,模型在代码生成、数学逻辑推理等场景中推理速度与准确性提升40%;
支持多模态处理能力,例如文本、图像、代码等多类型输入,尤其在复杂任务(如金融数据分析、工业流程优化)中表现突出;
推出的QwQ-32B等轻量版本,可直接部署于本地设备,降低企业算力成本。

