DeepSeek
中国
AI大模型AI对话聊天

DeepSeek

DeepSeek-V2:幻方量化旗下深度求索推出的开源大模型和聊天助手

标签:
讯飞星火大模型
讯飞星火
DeepSeek

DeepSeek-V2是什么

DeepSeek-V2是一款由DeepSeek AI公司开发的混合专家(MoE)语言模型,它旨在探索通用人工智能(AGI)的本质。这个模型以其训练成本低和推理高效为特点,参数量达到236B,每个token激活21B参数,支持128K token的上下文长度。

DeepSeek-V2的能力

  • 性能对比:DeepSeek-V2在AlignBench基准测试中超过了GPT-4,接近GPT-4-turbo,在MT-Bench中与LLaMA3-70B相媲美,优于Mixtral 8x22B。
  • 擅长领域:模型特别擅长数学、代码和推理任务。
  • 任务表现:在NEEDLE IN A HAYSTACK任务中,即使上下文窗口达到128K,DeepSeek-V2也能表现良好。在LiveCodeBench上,它获得了较高的Pass@1分数。
  • 预训练和微调:DeepSeek-V2使用了一个由8.1T token组成的高质量、多源预训练语料库,并在150万个对话上进行了监督微调(SFT),以及通过群组相对策略优化(GRPO)进一步优化模型。

DeepSeek-V2的价格

DeepSeek-V2 API的定价为每百万token输入0.14美元(约1元人民币)

输出0.28美元(约2元人民币,32K上下文)。

这个价格相比GPT-4-Turbo定价,仅为后者的近百分之一。

如何使用DeepSeek-V2

文章中提到DeepSeek-V2采用Transformer架构,并在注意力模块和前馈网络(FFN)上采用了创新的架构,包括:

  • MLA(低秩键值联合压缩):用于消除推理时键值缓存的瓶颈,支持高效推理。
  • DeepSeekMoE:一种高性能的MoE架构,以经济的成本训练出强大的模型。

此外,DeepSeek-V2基于HAI-LLM框架进行训练,采用多种并行技术以减少通信开销,并使用定制的CUDA内核提高训练效率。

文章还提到了DeepSeek-V2 Chat (SFT)和DeepSeek-V2 Chat (RL)在不同评估基准上的性能表现,展示了模型在对话生成和一致性方面的有效性。

参考资料:https://www.jiqizhixin.com/articles/2024-05-07-3

相关导航

暂无评论

暂无评论...