编辑:编辑部 HXZ
【新智元导读】通义千问新一代开源模型中,Qwen2.5-72B的性能直接超越Llama 405B,再次登顶全球开源大模型王座!如今,通义千问开源模型的累计下载量已经突破了4000万,成为仅次于Llama的世界级模型群。
9月19日的云栖大会上,阿里产品再次全线上新,给了业界不小的震撼!
除了更强大、更安全的云平台和AI基础设施,一系列大模型的重磅更新吸引了国内外AI社区的关注。
Qwen 2.5系列一口气开源了7个尺寸,不仅用72B的参数超越了405B的Llama 3.1,最强旗舰模型Qwen2.5-Max更是剑指GPT-4o。
此外,面向消费者端的各种AI应用更新也让人直呼过瘾。不仅有代码辅助模型「通义灵码」大显身手,魔搭社区最新上线的一站式AIGC创作平台还对用户免费开放GPU算力。
阿里Qwen 2.5,再登全球开源大模型王座
云栖大会上最重磅的产品,莫过于阿里云CTO周靖人发布的通义千问新一代开源模型Qwen2.5了。
其中的旗舰模型Qwen2.5-72B性能直接超越Llama 405B,再次登顶全球开源大模型王座!
而且这一次发布的Qwen 2.5,涵盖了多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每个尺寸都有基础版本、指令跟随版本、量化版本,总计上架的模型有100多个,直接刷新了业界纪录。
另外,截至2024年9月中旬,通义千问开源模型的累计下载量已经突破了4000万,成为仅次于Llama的世界级模型群!
后来居上,中国开发者的首选模型
这次的Qwen2.5全系列模型,是在18T tokens的数据上预训练的,相比Qwen2整体性能提升了18%以上。
在MMLU-rudex基准(通用知识)、MBPP 基准(代码)和MATH基准(数学)上,Qwen2.5-72B模型的得分高达86.8、88.2、83.1。
现在,Qwen2.5已经支持高达128K的上下文长度,可生成最多8K内容。
模型拥有强大的多语言能力,支持中文、英文、法文、西班牙文、俄文、日文、越南文、阿拉伯文等29种以上语言。
无论是多么多样化的系统提示,模型都能丝滑响应,角色扮演和聊天机器人等人物都不在话下。
在指令跟随、理解结构化数据(如表格)、生成结构化输出(尤其是JSON)等方面,Qwen2.5的进步都十分明显。
在语言模式方面,Qwen2.5一口气开源了7个尺寸:0.5B、1.5B、3B、7B、14B、32B、72B。在同等参数赛道上,这些模型都取得了业界最佳战绩。
为什么要设定如此多的型号?
团队如此决定,是充分考虑了下游场景的不同需求。
比如3B模型,就是适配手机等端侧设备的黄金尺寸。
而34B模型,则是最受开发者期待的「性价比之王」!在整体表现上,Qwen2.5-32B直接超越了Qwen2-72B,可以说是在性能和功耗之间获得了最佳平衡。
在MMLU-redux等十多个基准测评中,Qwen2.5-72B表现超越Llama3.1-405B
接下来,就是Qwen2.5系列的旗舰模型72B。
它的指令跟随版本Qwen2.5-72B-Instruct,在MMLU-redux、MATH、MBPP、LiveCodeBench、Arena-Hard、AlignBench、MT-Bench、MultiPL-E等权威测评中表现出色。
在多个核心任务上,它以不到1/5的参数,就超越了拥有4050亿巨量参数的Llama3.1-405B,继续稳居「全球最强开源大模型」宝座。
专项模型方面,用于编程的 Qwen2.5-Coder 和用于数学的 Qwen2.5-Math都比前代有了实质性进步。
Qwen2.5-Coder在多达5.5T tokens的编程相关数据上作了训练,当天开源的是1.5B和7B版本,未来还将开源32B版本。
Qwen2.5-Math支持使用思维链和工具集成推理(TIR) 解决中英双语的数学题,是迄今为止最先进的开源数学模型系列,本次开源了1.5B、7B、72B三个尺寸和一款数学奖励模型Qwen2.5-Math-RM。
多模态模型方面,广受期待的视觉语言模型Qwen2-VL-72B也正式开源了!
Qwen2-VL能识别不同分辨率和长宽比的图片,理解20分钟以上长视频,具备自主操作手机和机器人的视觉智能体能力。
根据日前权威测评LMSYS Chatbot Arena Leaderboard发布的最新一期视觉模型性能测评结果,Qwen2-VL-72B已经成为全球得分最高的开源模型!
Qwen2-VL-72B在权威测评LMSYS Chatbot Arena Leaderboard成为成为全球得分最高的开源视觉理解模型
回望一步步走来的过程,我们亲眼见证了通义如何自2023年8月开源以来,在全球的开源大模型中后来居上。
如今,它已经成为全球众多开发者(尤其是中国开发者)的首选模型。
在性能上,通义大模型日拱一卒,逐步赶超了美国的最强开源模型Llama,多次登顶Hugging Face全球大模型榜单。
生态上,通义从零起步开疆拓土,与海内外的开源社区、生态伙伴、开发者共建生态网络。
截至2024年9月中旬,通义千问开源模型下载量突破4000万,Qwen系列衍生模型总数超过5万个。
可以说,通义千问已经成为仅次于Llama的世界级模型群!
HuggingFace数据显示,截至9月中旬Qwen系列原生模型和衍生模型总数超过5万个
Qwen-Max,性能接近GPT-4o
除了开源模型Qwen 2.5,阿里通义的旗舰模型Qwen-Max也迎来了全方位升级。
相比上一代模型,Qwen2.5-Max使用了更多的训练数据、更大的模型规模、更强的人类对齐,最终达到了更高的智能水平。
在MMLU-Pro、MATH、GSM8K、HumanEval、LiveCodeBench、MT-Bench等十多个流行基准上,Qwen-Max的表现整体逼近GPT-4o。
其中,数学能力、代码能力则超越了GPT-4o,体现了Qwen2.5-Max卓越的推理能力和智能水平。
相比去年年4月的初代通义千问大模型,Qwen 2.5-Max实现了各方面能力的显著进步——理解能力提升46%、数学能力提升75%、代码能力提升102%、幻觉抵御能力提升35%、指令遵循能力提升105%。
此外,模型与人类偏好的对齐水平更是有了质的飞跃,提升了700%以上。
目前,通义官网以及APP的后台模型均已切换为Qwen2.5-Max,继续免费为所有用户提供服务,阿里云百炼平台也已经上线了Qwen-Max的API。
模型升级的同时,阿里还在云栖大会上郑重宣布:「加量不加价」,甚至还要降价,致力于让开发者和初创企业用最低的价格,用上性能最好的模型。
本次的降价可谓是诚意满满,最低幅度也有50%,直接打对折;最高降幅甚至达到了90%。
降价后,Qwen-Plus的性价比达到了业界最高,仅仅是同等规模下行业价格的16%。
首次使用阿里云百炼平台的用户同样有福利,可以获得免费赠送的5000万+token及4500张图片生成额度。
通义灵码再升级,真·AI程序员来了
随着通义系列基础模型能力的全面提升,各个具体领域的应用模型也随之飞升。这次在云栖大会上迎来重磅升级的,就包括用于代码生成的通义灵码。
一年前的通义灵码还只能完成基础的辅助编程任务,很难在生产场景下发挥实际作用。
如今,只需要用户的几句话,通义灵码就能完成需求理解、任务拆解、代码编写、修改bug、自主测试等一系列开发步骤,构建一整个完整的工作流,完成更复杂、更全面的任务。
进化后的通义灵码,可以说是AI程序员扩展能力的好帮手,工作效率瞬间提升数十倍,最快只需几分钟就能从0到1完成应用开发。
例如,如果是人类程序员仅靠手动码代码开发网页,通常需要1天的时间完成需求分解、写代码、测试等任务。
现在,只需要输入需求,通义灵码5分钟就能完成整个过程。云栖大会现场,这类应用案例比比皆是。
一位13岁的中学生就帮我们亲身试验了。在通义灵码上输入几句话,2分钟就能生成一个python语言编写的倒计时网页。
想从源代码修改魂斗罗游戏?那你得去扒2000多行的源代码,准确找到角色生命值、跳跃高度等参数,吃透代码的整体逻辑,然后才能修改。
而就在大会现场,通义灵码仅需要几分钟就能完成以上所有步骤。
有了通义灵码的加持,开发任务的技术门槛将大大降低。只要有创意,不懂代码也能创建自己的应用和软件。
魔搭社区,一站式AIGC创作
随着图片/视频生成模型的崛起,AIGC俨然成为了一条火热的赛道,也是最容易上手、场景最广泛的应用之一。
自2022年云栖大会上发布以来,魔搭社区已成为国内规模最大、最活跃的AI模型社区,汇聚了超过1万款优质模型,服务超过690万用户。
借助魔搭社区的平台,阿里宣布正式上线AIGC专区,为用户提供从模型到应用的一站式AI创作平台,并免费开放全部功能板块及GPU算力。
首批上架的包括157款高质量多模态模型,既有FLUX、Stable Diffusion等社区流行模型,也包含众多设计师贡献的小众微调模型,黏土风、宫崎骏、3D实感、线条手绘等小众风格一网打尽。
魔搭AIGC专区网址:https://www.modelscope.cn/aigc/home
在魔搭AIGC专区,用户可以直接下载模型,也可以直接在线调用、快速生图。
同时,魔搭AIGC生图专区还支持图生图、局部重绘、Adetailer人脸修复、ControlNet细节调控等深度功能,帮你掌舵AI模型,打造最理想的画面效果。
对于需求更加专业、更需要定制化模型的开发者或设计师,魔搭AIGC专区还可以提供模型微调功能。
只需批量上传图片,就能很方便地对模型进行LoRa微调,最低10张图片即可完成模型训练。
后续,魔搭AIGC专区也将上架视频、语音等更多模态的模型和应用,为开发者提供最优的一站式AIGC体验。