阿里云 CEO 吴泳铭:AI 时代的云服务与模型迭代
在去年,阿里云喊出的口号还是“要做AI时代最开放的云”,在云栖大会也释放了一系列开源、闭源模型,以及底层云基础设施的更新。
如今,阿里云投入到AI上的力度并未减少,甚至更大。
值得注意的是,接任阿里云一年多的现任CEO吴泳铭,今年是*次在云栖大会上露面。
吴泳铭是阿里在这次生成式AI浪潮中的主舵手。他在开幕式讲话中表示:去年,大模型还只能辅助程序员写简单的代码,今天已经能直接理解需求,完成复杂的编程任务。
“智能涌现”在展会中试用了各类AI应用产品。印象深刻的一点在于,模型迭代比很多人想象得都要快——去年很多AI生图、智能客服等产品,常常受限于模型推理速度而体验平平;到了今年,“智能涌现”已经可以站在展台前,和数字人实时对话、随时打断。
图源:智谱清言
不过,当下的进展离人们期待的AI应用大爆发还有很远的距离。“过去22个月,AI发展速度已超任何历史时期,但依然处于AGI变革的早期。”吴泳铭说,阿里云还会持续不断投入到AI基础设施的建设当中。
大模型还不够便宜,降价远未到头
本次云栖大会上,阿里云旗下的通义大模型家族,发布了通义千问新一代开源模型Qwen2.5,涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每种模型均有多个开发版本,总计上架100多个模型。
其中,Qwen2.5全系列模型都在18T 数据上进行预训练,相比Qwen2,整体性能提升18%以上,支持高达128K(约合超10万汉字)的上下文长度,可生成最多8K内容。而最旗舰的Qwen-Max,性能已接近GPT-4o。
代码模型对模型的推理、思考能力有极高要求,这也是新模型o1重点提升的能力。有业界人士评价:“Qwen是在之外第二个推动编程能力提升的中文大模型,而且数学模型也整合了多种推理方法,这些进展都可以说是国产骄傲。”
2024年的大模型界,依旧经历着共识的震荡。GPT-5的延迟牵动着全球AI界的思绪,业界对大模型进化曲线的质疑,贯穿着这个夏天,一直到发布新模型o1,推理、思考能力有了质的提升,这种情绪才稍有转向。
今年云栖大会计算馆里挂着的标语“AI是云计算的第三次浪潮”,也有了更坚实存在的理由。
不过,国内从5月开始的大模型降价潮,引起的争议尚未平息。有观点认为,行业发展早期,过早降价,这是无意义的内卷行为,反倒会伤害市场。
一年多来,通义千问的API,在阿里云百炼上的调用价格下降了97%,百万调用花费*已经降到了5毛钱。百万token,相当于350万字的中文书籍。
阿里云也尝到了大模型的甜头。刚刚过去的Q2季度,AI推动阿里云的收入和利润双增长,季度营收增长6%至265.49亿元,其中AI相关产品收入实现三位数增长,公共云业务实现两位数增长。值得注意的是,经调整EBITA利润同比增长155%,单季度EBITA利润达到23.37亿元。
不过作为云行业领头羊,阿里云表示:现在AI大模型的降价,远远没到尽头。
对比国外,国内如今的降价力度已经十分夸张,不少厂商都选择牺牲短期利润来跟进降价。阿里云CTO周靖人则否认是自家牺牲利润来降价:“模型本身在快速的迭代,过去几个月里,推理的架构、系统的优化都有提升很多,我们能够把各方面效率提起来,才会把技术红利让利给客户。”他说。
这波生成式AI的降价逻辑,和云计算发展早期是类似的。全球范围里云厂商经过一轮轮的降价,不断吸引企业上云、使用云,规模越来越大,让用云的边际成本不断下降,技术不断提升,这才让云行业不断壮大。
但现在的生成式AI浪潮,处在比云计算兴起时还要更早的阶段——现在国内算力市场还是以CPU为主,包括GPU等芯片的制造仍在探索期。
“我们不认为现在的降价是价格战。手机套餐一个月不到200元,可以用数十G的流量,但在二十年前,用这么多流量估计会用破产,”周靖人表示,“今天的价格不存在说已经足够低了,相对未来庞大的应用来说,还太贵了。”
阿里云围绕AI,在基础设施上的建设重构仍在继续。如今,阿里云的单网络集群已拓展至十万卡级别,从芯片、服务器、网络、存储到散热、供电、数据中心等等,都有围绕AI算力层面的更新。
一些利好的信号已经出现。根据阿里云披露的数据,在新增算力市场上,超过50%的新需求由AI驱动产生,AI算力需求已经占据主流地位。这一趋势还会持续扩大。过去一年,阿里云投资新建了大量的AI算力,但还是远远不能满足客户的旺盛需求。
o1给全球AI界续命,也指明中国大模型的不同道路
本届云栖上,吴泳铭抛出的一个鲜明观点是:“AI*的想象力不在手机屏幕,而是接管数字世界,改变物理世界。”
这句话别有深意。曾有很长一段时间,国内大模型圈的共识在于:中国大模型的机遇更多在To C,做出微信、抖音级别的“超级应用”成为一种执念。
6月的智源大会上,零一万物、创新工场创始人李开复,甚至给今年最火的具身智能赛道泼了一盆冷水:一旦大模型接入物理世界,需要面临包括安全问题、机器问题、机械问题、故障问题在内的各种问题,难度会大很多倍。所以,当前大模型更适合在虚拟世界服务。
这源自一个由来已久的观点:美国更适合做从0到1的尖端技术创新,但中国在上一个移动互联网时代积累下来的方法论,让其更擅长于从1做到100,做出抖音、微信级别的超级应用。
但现实并不如人意。从2024年开始,国内前沿的大模型基本都接近GPT-4的水平,模型能力的限制,又让To C端的应用囿于小而美的阶段,超级应用并没有爆发的苗头。更多的产业创新,都先流向了已有的超级应用中,提升存量业务的效率。
吴泳铭的观点,可以看作是对上面这些争论的一种反调。的新模型o1发布后,中国在大模型上的发展道路,不会单纯重复上一个互联网时代的发展轨迹,或者说,有可能走出另一条道路。
阿里云已是国内对大模型最激进投入的巨头。在内部,阿里云的通义大模型家族涵盖了开源、闭源的大模型产品,在图像、视频、编程等方向都有细分的专业模型;在外部,阿里云在过去一年多的时间里,已经投资了国内大模型“六小虎”中的五家,出手果决。
如果说前不久的o1给全球AI界“续命”,那么对当下的中国AI界,o1让“物理世界”上的赛道,现实意义更大了。