中国MoE一夜爆火!大模型新王暴打GPT-4o,训练成本仅600万美元
创始人
2024-12-27 12:41:29

新智元报道

编辑:桃子 好困

【新智元导读】600万美金训出击败GPT-4o大模型,竟被中国团队实现了!今天,DeepSeek-V3在全网掀起巨大风暴,仅凭671B参数在数学代码性能上,堪比国外大模型Claude 3.5 Sonnet。

一夜之间,来自中国的大模型刷屏全网。

DeepSeek-V3,一个拥有671B参数的MoE模型,吞吐量每秒高达60 token,比上一代V2直接飙升3倍。

在多项基准测试中,V3性能直接与Claude 3.5 Sonnet、GPT-4o相匹敌。

在数学代码方面,DeepSeek-V3完全碾压GPT-4o。尤其是中文能力,全面领先国外的领先大模型。

就看这闪电般的推理速度,就知道模型有多强了。

值得一提的是,DeepSeek-V3在14.8T高质量token上完成了训练,模型和论文100%开源。

论文地址:https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf

新模型惊艳出世,彻底掀翻了整个AI圈。业界多位AI大佬,纷纷对此表示震惊,将重点转向其训练成本GPU之上。

论文中,明确提出了DeepSeek-V3仅使用2048块GPU训练了2个月,并且只花费了 557.6万美金。

Karpathy惊叹道,「作为参考,要达到这种级别的能力,通常需要约1.6万个GPU的计算集群。不仅如此,当前业界正在部署的集群规模甚至已经达到了10万个GPU。

比如,Llama 3 405B消耗了3080万GPU小时,而看起来更强大的DeepSeek-V3却只用了280万GPU小时(计算量减少了约11倍)。

到目前为止,模型在实际应用中的表现相当出色——不仅在LLM竞技场名列前茅,而且从Karpathy本人的快速测试来看,结果也都很不错。

这说明,即便是在资源受限情况下,模型也能展现出令人印象深刻的研究和工程能力。

这是否意味着前沿LLM不需要大型GPU集群?不是的,但这表明,你必须确保不浪费已有的资源,这个案例很好地证明了在数据和算法方面还有很大的优化空间」。

另外,贾扬清针对推理提出了几点自己的思考:

  • 首先最重要的是,我们正式进入了分布式推理时代。一台单GPU机器(80×8=640G)的显存已经无法容纳所有参数。虽然更新大显存机器确实可以装下模型,但不论如何,都需要分布式推理来保证性能和未来扩展。

  • 即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。

  • 论文中特别提到引入「redundantexpert」概念,正是为了解决这个问题。这已经不再是「一个模型多个副本」的问题、而是「每个模型子模块都有多个副本」,然后独立扩缩容。

  • 输入token很容易实现盈利。根据个人专业判断,需要大量优化才能使输出token盈利或实现收支平衡。但如果我们相信「软件摩尔定律」,这就不是问题:每18个月单token成本减半。

  • 需要进行分块(tile)或块(block)级别的量化。

  • 等硬件支持FP4以后,肯定还有不少可以玩的花样冷知识:FP4乘法实际上就是个16×16的table lookup等等……

中国模型一夜击败GPT-4o,100%开源

DeepSeek-V3不俗表现,是在上一代V2进一步升级和迭代。

在基准测试中,数学领域MATH 500上,DeepSeek-V3拿下了90.2高分,比Claude 3.5 Sonnet、GPT-4o超出10分还要多。

同理,在AIME 2024测试中,DeepSeek-V3也取得了领先优势,飙升近20分。

在代码Codeforces基准上,新模型以51.6分刷新SOTA,比国外大模型高出30分左右。

在软件工程SWE-bench Verified基准上,DeepSeek-V3略显逊色,Claude 3.5 Sonnet以50.8分碾压所有模型。

另外,在多语言能力(MMLU-Pro)方面,V3提升并不明显。知识问答基准(GPQA-Diamond)上,V3也是仅次于Claude 3.5 Sonnet。

如下这张图表,更详细地展示了DeepSeek-V3在各种基准测试中的结果。

53页技术报告中,特比强调了V3的训练成本取得了最大的突破。

团队特意强调了,新模型的完整训练仅需要2.788M个GPU小时。即便如此,它在训练过程中非常稳定,没有遇到过任何不可恢复的loss突增,也没有执行任何rollback操作。

DeepSeek-V3训练成本如下表1所示,这是背后团队通过优化算法、框架、硬件协同设计最终实现的。

在预训练阶段,模型每训练1万亿token仅需要180K个GPU小时,即在配备2048个GPU的集群上只需3.7天。

因此,DeepSeek-V3预训练阶段耗时不到2个月就完成了,总共消耗2664K个GPU小时。

另外,再加上上下文长度scaling所需的119K GPU小时和后训练的5K GPU小时,由此V3完整训练仅消耗2.788M个GPU小时。

团队表示,假设GPU的租用价格为2美元/每GPU小时,DeepSeek-V3总训练成本仅为557.6万美元。

那么,究竟是怎样的技术突破,使得DeepSeek-V3实现了质的飞升?

训练细节

正如开头所述,DeepSeek-V3是一个强大的混合专家模型(MoE),总参数量为为671B,每个token激活37B参数。

它继续采用了多头潜在注意力(MLA)来实现高效推理,以及DeepSeekMoE实现低成本训练。

这两种架构的优势,已经在上一代V2中得到了验证。

除了基本框架之外,研究人员还采用了两个额外的策略,来进一步增强模型的能力:

  • 采用无辅助损失(auxiliary-loss-free)方法来实现负载均衡,目的是最小化负载均衡对V3性能造成的不利影响。

  • 采用多token预测训练目标,结果证明能够提升V3在评估基准上的整体性能。

DeepSeek-V3框架

为了实现高效训练,团队采用了「FP8混合精度训练」,并对训练框架进行了全面优化。

通过支持FP8计算和存储,实现了训练加速和GPU内存使用的减少。

在预训练阶段,DeepSeek-V3在14.8T高质量且多样化的token完成了训练,然后又对模型进行了监督微调、强化学习阶段。

由此,我们才看了DeepSeek-V3在如上评测中,性能超过了其他开源模型,并达到了与领先闭源模型相当的性能水平。

网友炸锅了

DeepSeek-V3现在已经在官方平台上直接可以测试,而且代码全部开源可以直接下载。

国外AI发烧友们纷纷开启了测试,有人直接将4/8个M4 Mac mini堆叠在一起来运行DeepSeek-V3了...

一位开发者惊讶地表示,DeepSeek-V3无需我解释就能如此准确地理解一切,这种感觉真让人毛骨悚然。就好像机器里真的住着一个幽灵似的。

另有开发者通过DeepSeek-V3创建了一个用AI公司logo制作的小行星游戏,分分钟就完成了。

还有的人对用如此低成本,训练出一个强大得模型,难以置信。

Stability AI前CEO表示,以每秒60个token(相当于人类阅读速度5倍)的速度全天候运行DeepSeek v3,每天仅需要2美元。

那么,你是要选择一杯拿铁咖啡,还是一个AI助手呢?

参考资料:

⚠️
本网站信息内容及素材来源于网络采集或用户发布,如涉及侵权,请及时联系我们,发送链接至2697952338@QQ.COM,我们将第一时间进行核实与删除处理。

相关内容

热门资讯

全新淘金APP怎么退费?被忽悠... 全新淘金APP怎么退费?被忽悠不要慌 ,帮你1-7日成功全额挽回拇指订购APP、全新订购APP、优品...
抖音快报:北京和讯信息费怎么退... 抖音快报:北京和讯信息费怎么退费?答案是:可以退的!有法可依维权可退!退费流程公布  《中华人民共和...
赵东交流圈打新股投资签署经销商... 本文旨在进行投资风险教育,不针对任何特定企业。以下案例为拟情景,如有雷同纯属巧合。什么是原始股投资?...
抖音提醒:上海亚商投资推荐股票... 抖音提醒:上海亚商投资推荐股票可靠吗?花十几万推荐的都是垃圾股,被骗亏损真相曝光已退费!  《中华人...
百度快报:北京天相财富费怎么退... 百度快报:北京天相财富费怎么退费?答案是:可以退的!有法可依维权可退!退费流程公布  《中华人民共和...
抖音头条:上海中和应泰宣传交费... 抖音头条:上海中和应泰宣传交费盈利截图是,交费后货不对板可按此退费!  《中华人民共和国消费者权益保...
上海巧旭中标中油管道磁力循环泵... 12月25日,上海巧旭正式收到中油管道物资装备有限公司发出的中标通知,成功中标磁力循环泵采购项目。该...
深圳华南游资帮鹏程荟线下打新股... 本文旨在进行投资风险教育,不针对任何特定企业。以下案例为拟情景,如有雷同纯属巧合。什么是原始股投资?...
百度财经:北京天相财富费怎么退... 百度财经:北京天相财富费怎么退费?答案是:可以退的!有法可依维权可退!退费流程公布  《中华人民共和...
谷峰学院打新股投资签署经销商授... 本文旨在进行投资风险教育,不针对任何特定企业。以下案例为拟情景,如有雷同纯属巧合。什么是原始股投资?...