阿里云推出全球最强开源大模型 Qwen2.5-72B,性能超越 Lama3.1-405B

aixo 2024-09-20 02:03:29
大模型 2024-09-20 02:03:29

Llama_llamar_llama怎么读

智东西

作者 三北

编辑 漠影

云计算“春晚”云栖大会开幕,通义千问大模型再次燃爆全场!

智东西9月19日杭州报道,今日,阿里云推出全球最强开源大模型Qwen2.5-72B,性能“跨量级”超越.1-405B,再登全球开源大模型王座。

llamar_llama怎么读_Llama

▲Qwen2.5-72B在多项权威测试中超越Llama-405B

同时,一大串Qwen2.5系列模型随之开源,包括:语言模型Qwen2.5、视觉语言模型Qwen2-VL-72B、编程模型Qwen2.5-Coder、数学模型Qwen2.5-Math等,累计上架超100个,部分性能赶超GPT-4o,刷新世界纪录。

“今天是疯狂星期四”、“史诗级产品”……发布几个小时里,Qwen2.5在海内外社交媒体上掀起讨论热潮,全球开发者纷纷加入试用测试队伍。

llamar_Llama_llama怎么读

llamar_llama怎么读_Llama

▲Qwen2.5在海内外社交媒体上掀起讨论热潮

智东西也第一时间在魔搭平台上试用了Qwen2.5,以结合视觉识别的Qwen2.5-Math为例,当输入一张几何相似选择题截图,Qwen2.5-Math快速识别题意,并给出了正确的解题过程和答案“B”,准确与速度都不错。

llama怎么读_llamar_Llama

▲智东西试用Qwen2.5-Math

自2023年4月以来短短一年半时间,通义千问Qwen已长成仅次于Llama的世界级模型群。

根据阿里云CTO周靖人公布的最新数据,截至2024年9月中旬,通义千问开源模型累计下载量已突破4000万,衍生大模型超5万个。

llamar_llama怎么读_Llama

▲Qwen系列衍生大模型超5万个

Qwen2.5在性能上具体有哪些提升?超100个新上架开源模型有哪些亮点?智东西抵达杭州云栖大会现场为大家揭秘。

博客地址:

项目地址:

llama怎么读_Llama_llamar

▲官方博客发布阿里云Qwen2.5模型族群

一、再登全球榜首,Qwen2.5跨量级赶超.1-405B

具体来看看Qwen2.5的性能。

Qwen2.5模型支持高达128K的上下文长度,可生成最多8K内容,支持超29种语言,这意味着能帮用户胜任万字文章撰写。

不仅如此,基于18T token数据预训练,相比Qwen2,Qwen2.5整体性能提升18%以上,拥有更多的知识、更强的编程和数学能力。

llama怎么读_Llama_llamar

▲阿里云CTO周靖人在讲解Qwen2.5

据悉,旗舰模型Qwen2.5-72B模型在MMLU-rudex基准(考察通用知识)、MBPP 基准(考察代码能力)和MATH基准(考察数学能力)的得分高达86.8、88.2、83.1。

720亿参数的Qwen2.5,甚至“跨数量级”超越4050亿巨量参数的.1-405B。

.1-405B由Meta于2024年7月发布,在150多个基准测试集中追平甚至超越了当时SOTA(业界最佳)模型GPT-4o,引发“最强开源模型即最强模型”论断。

Qwen2.5指令跟随版本Qwen2.5-72B-在MMLU-redux、MATH、MBPP、、Arena-Hard、、MT-Bench、-E等权威测评中,超越.1-405B。

llama怎么读_llamar_Llama

▲Qwen2.5-72B模型测评情况

Qwen2.5再次坐稳全球最强开源大模型位置,助推“开源超闭源”行业趋势。

这是阿里云继今年6月开源通义千问Qwen2系列、赶超当时的最强开源模型-70B后,再次推出开源系列版本。

每一个新王出现后,很快就会被通义新版本超越,这已成为AI开发者圈熟悉的节奏。

9月18日晚间Qwen2.5开放后,不少开发者激动地觉都不睡了,先试再说。

llamar_llama怎么读_Llama

▲海内外开发者热议Qwen2.5

二、史上最大模型族群诞生,开源模型上架超百个

Qwen2.5开源模型数量史无前例。

阿里云CTO周靖人在云栖大会上宣布,Qwen2.5系列总计上架开源模型超过100个,充分适配各种场景的开发者和中小企业需求。

这响应了众多开发者的呼声,他们已经在各大社交媒体“催更”多时。

llama怎么读_llamar_Llama

llamar_llama怎么读_Llama

llama怎么读_llamar_Llama

▲海内外开发者催更Qwen2.5

1、语言模型:从0.5B到72B七个尺寸,从端侧到工业级场景全覆盖

Qwen2.5开源了7个尺寸语言模型,包括0.5B、1.5B、3B、7B、14B、32B、72B,均在对应赛道实现了SOTA成绩。

llama怎么读_llamar_Llama

▲多个尺寸Qwen2.5满足多样化场景需求

这些版本助开发者兼顾模型能力和成本,适配多种场景需求,比如,3B是适配手机等端侧设备的黄金尺寸,32B是最受开发者期待的“性价比之王”,72B是足够用于工业级、科研级场景的性能王者。

博客地址:

2、多模态模型:视觉模型理解20分钟视频,音语言模型支持8种语言

备受期待的大规模视觉语言模型Qwen2-VL-72B,今日正式开源。

Qwen2-VL能识别不同分辨率和长宽比的图片,理解20分钟以上长视频,具备调节手机和设备的视觉智能体能力,视觉理解能力超越GPT-4o水平。

llama怎么读_llamar_Llama

▲大规模视觉语言模型Qwen2-VL-72B开源

在全球权威测评LMSYS Arena 上,Qwen2-VL-72B成为得分最高的开源视觉理解模型。

llama怎么读_Llama_llamar

▲Qwen2-VL-72B成为得分最高的开源视觉理解模型

Qwen2-Audio大规模音频语言模型则是一款能听懂人声、音乐、自然声音的开源模型,支持语音聊天、音频信息分析,支持超8种语言和方言,在主流测评指标上全球领先。

博客地址:

3、专项模型:最先进开源数学模型亮相,赶超GPT-4o

用于编程的Qwen2.5-Coder、用于数学的Qwen2.5-Math,也于本次云栖大会宣告开源。

其中,Qwen2.5-Math是迄今为止最先进的开源数学模型系列,本次开源了1.5B、7B、72B三个尺寸和数学奖励模型Qwen2.5-Math-RM。

llamar_llama怎么读_Llama

▲Qwen2.5-Math开源

旗舰模型Qwen2-Math-72B-在数学相关的下游任务中,表现优于GPT-4o和 3.5等专有模型。

Qwen2.5-Coder在多达5.5T 的编程相关数据上作了训练,当天开源1.5B和7B版本,未来还将开源32B版本。

Llama_llama怎么读_llamar

▲Qwen2.5-Coder开源

博客地址:

此外值得一提的是,通义千问旗舰模型Qwen-Max也实现了全面升级,在MMLU-Pro、MATH等十多个权威基准上接近甚至赶超GPT-4o,上线通义千问官网和通义APP。用户也可通过阿里云百炼平台调用Qwen-Max的API。

llama怎么读_Llama_llamar

▲Qwen-Max实现全面升级

自2023年4月初代通义千问大模型发布以来,阿里云让中国企业低成本用上大模型,反过来也推动今天的Qwen2.5系列“越用越好用”。

Qwen2.5系列模型涵盖基础版本、指令跟随版本、量化版本,正是在实战场景中迭代而来。

三、通义千问Qwen下载破4000万,“产仔”超5万个

狂飙一年半,通义千问已成为仅次于Llama的世界级模型群。

周靖人公布的两组最新数据对此进行了印证:

一是模型下载量,截至2024年9月初,通义千问开源模型累计下载量已经突破4000万,这是开发者和中小企业用脚投票的结果;

二是衍生模型数量,截至9月初,通义原生模型和衍生模型总数超过5万个,仅次于Llama。

llama怎么读_llamar_Llama

▲通义千问开源模型累计下载量突破4000万

至此,“万模同源”已成为中国大模型产业发展的显著趋势。

什么概念?国产开源不仅在性能上稳居全球榜首,并且在生态上开疆扩土。海内外的开源社区、生态伙伴、开发者成为通义千问的“自来水”,通义千问成为很多企业采用的第一款大模型,也是用得最久的大模型。

早在2023年8月,阿里云就开源通义千问70亿参数模型至免费可商用,再到今年的Qwen1.5、Qwen2、Qwen2.5接连发布,让开发者快速用上最先进模型的同时,获得更大控制权和调优空间,从而成为更多企业的首选。

7月初,全球最大开源社区 Face的工程师曾发推认证,通义是中国最卷的大模型。而通过阿里云,通义大模型已经服务了各行各业的30多万客户。在刚刚过去的2024年第二季度(对应阿里巴巴2025财年Q1),阿里云AI相关产品收入实现三位数增长。

llamar_llama怎么读_Llama

▲通义大模型服务超30万客户

阿里云做对了什么?

笔者认为,不同于国外大厂微软与强绑定、亚马逊AWS汇聚三方模型做底层基础设施,阿里云综合两者优势,一开始就选择了AI基础设施服务和自研大模型两手抓。

聚焦自研模型方面,阿里云是国内唯一坚定明确模型开源开放的云巨头,在模型突破、生态兼容、开发者服务等方面都不遗余力地做出了巨大投入,从而让通义大模型一步步走进世界AI竞争的核心圈。

结语:万模同源,行业分水岭时刻

开源模型正追平甚至赶超闭源模型。从7月Meta的Llama-405B到今天阿里云的Qwen2.5-72B,“万源同模”景观正在形成。通义千问大模型的一年半狂飙,让众多行业和企业实现更低成本AI规模化落地,行业正进入新的分水岭时刻。