DeepSeek-V2.5 是强大的专家混合(MoE)语言模型,以经济的训练和高效的推理为特点。该模型总共有 236B 参数,每次激活 21B 参数。DeepSeek-V2.5 是 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct 的升级版本。
注意
此模型的使用受许可协议的约束。请查看提供的链接了解相关协议。
详见 官方数据
https://github.com/deepseek-ai/DeepSeek-V2/blob/main/LICENSE-MODEL
由于技术特性,我们无法完全确保通过本服务获得的输出的合法性、真实性、准确性或完整性。请自行判断输出结果,并承担使用内容产生的所有风险。输出不代表专业意见,不应替代法律、医疗或金融等领域专业人员的咨询。由于机器学习特性,相同输入可能产生不同输出,请注意甄别。