模型介绍

DeepSeek-V2.5 是强大的专家混合(MoE)语言模型,以经济的训练和高效的推理为特点。该模型总共有 236B 参数,每次激活 21B 参数。DeepSeek-V2.5 是 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct 的升级版本。

模型亮点
DeepSeek-V2.5 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。有关模型详细信息,请访问 DeepSeek-V2 Huggingface 页面

注意

此模型的使用受许可协议的约束。请查看提供的链接了解相关协议。

评测数据

详见 官方数据

许可协议

https://github.com/deepseek-ai/DeepSeek-V2/blob/main/LICENSE-MODEL

免责声明

由于技术特性,我们无法完全确保通过本服务获得的输出的合法性、真实性、准确性或完整性。请自行判断输出结果,并承担使用内容产生的所有风险。输出不代表专业意见,不应替代法律、医疗或金融等领域专业人员的咨询。由于机器学习特性,相同输入可能产生不同输出,请注意甄别。