DeepSeek
-
DeepSeek发布V2模型 GPT
歆梦资源网5月7日 消息: 在开源MoE(Mixture of Experts)模型领域取得了重要进展,继今年1月份开源国内MoE模型后,现在发布了第二代MoE模型:DeepSeek-V2。这一新模型在多项性能评测中均展现出色的表现,与GPT-4等闭源模型竞争,同时在成本效益上具有显著优势。 模型权重下载: 体验地址: DeepSeek-V2在主流模型评测榜单中表现卓越,尤其在中文综合能力(AlignBench)和英文综合能力(MT-Bench)上,与闭源模型并驾齐驱。此外...



