【打破算力垄断、加速AI普惠的关键一步!DeepSeek发布开源第一弹 让大模型在GPU上跑得更快】2月24日,DeepSeek启动“开源周”,开源了首个代码库FlashMLA。据介绍,这是DeepSeek针对Hopper GPU优化的高效MLA解码内核,专为处理可变长度序列而设计,现在已经投入生产使用。简单来说,FlashMLA是一个能让大语言模型在H800这样的GPU上跑得更快、更高效的优化方案,尤其适用于高性能AI任务。
DeepSeek开源这一代码有何影响?记者用这一问题询问了DeepSeek,它回答称,这一代码就像给AI推理引擎装上了一台“涡轮增压器“,让大模型在处理复杂任务时更快、更省资源,同时降低了技术门槛。FlashMLA的意义不单是技术优化,更是打破算力垄断、加速AI普惠的关键一步。