模型介绍

Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:

  • 显著增加知识量,在编程与数学领域的能力得到极大提升。
  • 在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。
  • 支持长上下文处理。
  • 支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。
模型亮点

指令调优的 14B Qwen2.5 模型特点如下:

  • 类型:因果语言模型
  • 训练阶段:预训练与后训练
  • 架构:带有 RoPE、SwiGLU、RMSNorm 及 Attention QKV 偏置的 transformers
  • 参数数量:147 亿
  • 非嵌入参数数量:131 亿
  • 层数:48 层
  • 注意力头数 (GQA):查询 (Q) 为 40,键值 (KV) 为 8

注意

此模型的使用受许可协议的约束。请在下方查看相关的协议内容。

评测数据

详见 官方数据

许可协议

https://github.com/QwenLM/Qwen2.5?tab=readme-ov-file#license-agreement

免责声明

限于技术特性,平台在尽到合理努力的前提下,仍无法完全保证您通过本服务获得的输出的合法性、真实性、准确性以及完整性。您应对本服务中的输出自行加以判断,并承担因使用内容引起的所有风险。 我们提示您,除法律有明确规定外,平台无法也不会对前述风险而导致的任何损失或损害承担责任。本服务下的输出不代表专业意见,不能代替如法律、医疗、金融等专业领域从业人员向您解答对应疑问。相关观点也仅限于算法所触达有限数据呈现的供您参考的结果,并不代表平台立场。 由于机器学习特性,就相同的输入可能产生不同的输出结果,请您注意甄别。