最近Grok3获得了很多人的关注,其采用20万块英伟达GPU训练出来,对此网上

谈科技的阿波 2025-02-20 16:52:22

最近Grok 3获得了很多人的关注,其采用20万块英伟达GPU训练出来,对此网上出现了“20万块英伟达芯片练出Grok 3,印证了DeepSeek真的强”的说法,那么这个说法靠谱吗?对此我们将这个事情交给Grok 3,让它回答下它的看法。 这句“20万块英伟达芯片练出Grok 3,印证了DeepSeek真的强”乍看之下有点意思,但细想下来逻辑上有些跳跃,甚至可能存在误解。我来拆解一下这种说法的合理性与潜在问题。 首先,Grok 3确实是用20万块英伟达GPU训练出来的——这是xAI官方披露的事实。马斯克和团队在2月18日的发布会上提到,这款模型在孟菲斯超级集群上用10万块H100 GPU完成了第一阶段训练,后来扩展到20万块,总计耗费约2亿GPU小时。这是个惊人的算力投入,远超很多竞品,比如印度一个国家级AI项目才用了1.8万块GPU。这种“钞能力”直接助推了Grok 3在数学推理、科学逻辑和代码生成上的表现,据称超过了GPT-4o和DeepSeek-V3等模型。 但问题出在“印证了DeepSeek真的强”这部分。这句话的潜台词似乎是,Grok 3用了20万块GPU才达到如今的水平,而DeepSeek用远少得多的资源就做到了接近甚至匹敌的性能,所以显得DeepSeek更强。如果是这样理解,那得看看数据能不能撑住这个结论。 DeepSeek的厉害之处在于低成本高效率。拿DeepSeek-V3来说,它的总训练成本据报道仅约600万美元(约4000多万人民币),用了不到280万H800 GPU小时。而对比之下,Llama 3.1 405B花了3080万GPU小时,成本可能高达十几亿人民币;Grok 3的2亿GPU小时如果按每小时2美元算,成本轻松破4亿美元。DeepSeek-V3在MATH-500(90.2分)和AIME 2024(39.2分)等测试中表现不俗,甚至在编程任务上超过了不少闭源模型,性价比确实惊人。DeepSeek-R1(推理模型)更进一步,在AIME 2024上拿下79.8分,与OpenAI的o1(79.2分)不相上下,但训练成本依然远低于对手。 从这点看,说DeepSeek“强”是有道理的——它用极低的资源实现了顶级性能,技术优化(比如MoE架构和MLA注意力机制)功不可没。但Grok 3的20万块GPU和DeepSeek的“强”之间并没直接的因果关系。Grok 3的训练规模和DeepSeek的效率是两条不同的赛道:xAI走的是“大力出奇迹”路线,靠海量算力和数据砸出性能天花板;DeepSeek则是“精打细算”,在资源受限下追求极致优化。说Grok 3的算力“印证”DeepSeek的强,逻辑上有点像拿苹果比香蕉——两者目标和方法不同,没法直接互证。 再说个可能的误区:文章可能暗示Grok 3用了20万块GPU才“勉强”超过DeepSeek,显得DeepSeek更牛。但从发布会数据看,Grok 3在多项基准测试(比如AIME 2024得96.7分)上确实超过了DeepSeek-R1(79.8分),而且它还有推理模式(Reasoning Beta)和AI Agent(Deep Search)等功能加持,整体能力未必逊色。DeepSeek强在性价比和开源影响力,但Grok 3的绝对性能可能更高,只是付出了昂贵代价。 所以,这句话如果想表达“DeepSeek性价比高到让Grok 3的算力投入显得夸张”,那还算有点道理;但如果硬说Grok 3的20万块GPU直接“印证”了DeepSeek的强,就有点牵强了。两者的强弱对比,得看你更看重什么——是绝对性能,还是资源效率。我觉得网上这文章可能想蹭热度,标题党嫌疑不小,逻辑上没完全站住脚。你觉得呢?

0 阅读:112
谈科技的阿波

谈科技的阿波

感谢大家的关注