GPT-4o 语音饱受争议,Siri 有望升级吗?苹果 AI 战略全面分析
如果仅是这些功能,那就不免令人有些失望,毕竟,这些功能并不是革命性的,也很难吸引眼球,绝大部分都已经在谷歌或Meta的相关应用中存在。
的GPT-4o语音最近虽然饱受争议,但让我们看到了语音助手可以拟人化、智能化到什么程度。
于是,全网期待的目光落在了被传和合作的苹果上。作为最流行的语音助手之一,Siri有望在功能和声音上升级吗?
也有预测称,可能被植入到iOS18中作为聊天机器人插件;同时苹果也在「两手准备」,和谷歌洽谈的交易。
苹果的AI战略:数据中心、设备、云计算
与此同时,的著名爆料研究员Dylan Patel和Myron Xie一起,刚刚发了一篇文章,全面分析了苹果的AI战略。
在这篇文章中,两位记者提出了一个困扰着许多人的问题:苹果在AI领域到底在做什么?
要知道,现在全球都在疯狂抢购英伟达的GPU,然而苹果却没有参与这一「囤货」大潮。调查显示,苹果对GPU的采购微乎其微,连英伟达的十大客户都不是。
在WWDC大会前夕,各种传言满天飞。
两位记者对目前的各路消息来了个汇总。
加大M系列处理器产量,还要做自己的AI服务器
首先,有多个消息来源称,苹果今年将加大M系列处理器的产量,甚至达到创纪录的水平。
所谓M系列处理器,主要指的是M2 Ultra,它由2个片上M2 Max拼接而成,被苹果称之为「」。(有趣的是,据悉苹果的M3 Ultra被取消了。)
指的是使用本地硅互连技术将两个M2 Max芯片连接在一起。在软件层面上,这两个芯片被看作一个单一的芯片。M2 Ultra利用了台积电的InFO-LSI封装技术。这与台积电的CoWoS-L概念相似,英伟达的和未来的加速器也将采用这种技术。要说苹果和英伟达两种方法之间的唯一区别,就是苹果的InFO是芯片先行工艺流程, 而英伟达的CoWoS-L是芯片后行工艺流程,另外它们使用的是不同类型的内存
但是稍微仔细一想,就会发现:M2 Ultra的增产实在是很奇怪。
在需求上就完全找不到理由。M2 Ultra仅用于高端Mac 和Mac Pro,这些产品一年了都没什么有意义的更新,也没听说有哪个新产品要用到M2 Ultra。
总之,高端的台式PC和的需求都相当低迷,没有任何迹象表明,有什么消费需求能消耗掉这些设备。
所以,苹果究竟在下一盘什么棋?
跟M2 Ultra的增产消息呼应的,就是华尔街日报和彭博社最近的报道——苹果正在自己的数据中心,使用自己的芯片,为苹果用户提供AI服务。
另外,苹果在扩建数据中心基础设施上,也有着野心勃勃的计划。
两位记者发现,苹果目前至少有7个数据中心,涉及到30多座建筑,这还不包括计划中的项目。结果就是,这些数据中心的总容量在短时间内,就会翻一番。
上图是苹果公司即将建成的最大数据中心。目前只有一个数据中心,但明年将有许多数据中心陆续建成
挖来基础设施大牛
另外,苹果还在几个月内进行了一系列重大招聘,招兵买马扩张基础设施团队。
比如,他们挖来了云基础设施领域的大牛Sumit Gupta,来操刀苹果的基础设施。
Gupta在2007年到2015年效力于英伟达,参与了英伟达进军加速计算的初级阶段。随后他又入职IBM,再于2021年加入谷歌的AI基础设施团队,成为谷歌基础设施产品经理,包括TPU和基于Arm的数据中心CPU。
谷歌和英伟达算是目前唯二大规模部署AI基础设施的公司,能挖来这样的大牛,苹果要做的事恐怕不小。
苹果自研AI芯片
然而尴尬的是,M2 Ultra对于AI服务器来说,恐怕并不是个好主意。
虽然业界普遍认为,苹果的M系列芯片在AI性能上表现出色,但这仅限于设备端的AI应用,服务器上就不一定了。
现实的情况是,苹果的竞争对手们在笔记本和台式电脑上使用的内存架构要差得多:现有的英特尔、AMD和高通笔记本,都只有128位的内存总线,而苹果的内存总线宽度要远远吊打他们的CPU。
这就会导致这样一种后果:虽然其他笔记本电脑可以配备与苹果内存带宽相当的英伟达GPU,但是英伟达采用的是成本较低的GDDR6内存架构,而苹果采用的是高成本的LPDDR架构,这就需要更宽的总线、更大的芯片边缘面积。
这就让英伟达GPU受到了限制,它无法在内存中放下苹果CPU能够容纳的高级模型,比如Llama 3-70B。虽然苹果的每GB成本实际上更低,但LPDDR的内存容量太高。
这种优势并不能延伸到云端的AI性能。设备端主要关注模型是否能够运行,而云端则更关心经济性。
在云端,虽然原始带宽和容量很重要,但FLOPS的数量更关键,因为许多用户通过批处理同时服务。高批处理大小,可以将推理成本()降低到10倍以上。
这样的结果就是,M2 Ultra就像是一个糟糕社区中最好的一栋房子,它无法与数据中心其他GPU很好地协同。
不仅内存带宽方面落后于竞争对手,但更重要的差距,在于其FLOPS较少,导致并发用户数也大大减少。
Apple GPU中拥有的FLOPS数虽然极少,但幸运的是,好在他们还有神经引擎。
在苹果设备上运行LLM的一种策略,是将多层感知器(multi-layer )运行在神经引擎上,同时将注意力机制( )运行在GPU上。
不过需要注意的是,这里还是存在一个带宽问题,所以在总FLOPS方面,结果并不理想。
而且,就算我们能神奇地将GPU和神经引擎的FLOPS相加,性能仍然比数据中心GPU差了35倍到85倍。这意味着实现高批处理大小的能力有限,每个芯片服务的用户数量也会大幅减少。
对于Llama 3-70B,M2 Ultra的每个芯片能服务4-6个用户就算走运了,然而GPU却常能实现64或更多的批处理大小。
靠成本能弥补吗?
而且,目前我们还没有分析最重要的变量之一——成本。
采用自研M2 Ultra,苹果就无需支付商用硅或者定制设计合作者的高额利润了。
计算下来, 两个M2 Max芯片、InFO-L封装和192GB的LPDDR,成本大约在2000美元左右。相比之下,H100的成本达到了10倍之多。
但同时也要考虑到超过10倍的性能差异。即使对于Llama 3-70B这类模型,苹果也很难让M2 Ultra具备很高的成本效益。
此外,当模型规模超出单个芯片时,这种情况并不适用。
计算并不是简单地线性扩展,尤其是M系列的SoC并不是为这种扩展设计的。
芯片间唯一的互连是桥,将两个M2 Max结合成一个M2 Ultra。但这与英伟达的的高速芯片间扩展完全不同。
虽然苹果芯片在单位美元下能提供相当可观的总计算量,但是和直接购买英伟达GPU相比,也没差太多。
因为所有的浮点计算无法被集成到单一集群中,模型推理会被降级到以人类语速运行,规模上限是Llama 3同等大小,无法运行千亿参数模型。
为什么要自研芯片?理性原因
如果苹果只是为了提供更好的Siri,自研芯片有点夸张。但实际上,苹果的目标远不止于此。
他们的目标是将所有数据、服务与AI集成在一起,这意味着从设备端到云端,从底层计算、操作系统到应用程序和数据,用户都会有无缝衔接的流畅操作。
这种愿景符合苹果一直以来对于用户体验的追求。但这不仅需要强大的AI计算性能,还需要从芯片到软件的高度垂直的完整技术链。
比如Siri可能需要在云中运行,在手机或者Apple Watch上应答,同时保证强大功能、高速通信和流畅交互。
其中的另一个卖点在于,苹果会在自己的数据中心处理用户数据,而不是发送到第三方云服务,保护数据的隐私和安全。
非理性原因
但搭建自己的数据中心需要大量芯片和服务器,英伟达作为全球首屈一指的公司,完全可以提供所有高性能计算的基础设施,自己从头开始显然不是最优解。
这看起来不太理性的商业决策,确实蕴含着一些情感因素,这里就牵扯到苹果和英伟达的一桩旧怨了。
虽然如今英伟达已凭「毫无瑕疵的工程执行力」封神,但过去的英伟达,也曾犯下不少重大的工程错误。
最大的一个,就是2006至2009年间的「」丑闻。
在那段时间里,英伟达的整个55nm和系列由于高热量和糟糕的封装设计,早期故障率极高,超过40%。芯片和封装基板之间的凸点由于应力容易破裂,导致故障率完全不可接受。这是因为,英伟达选择了一种Tg过低的劣质填充物,因此在操作循环期间的高温下无法正确支撑凸点,导致了它们的疲劳
这就影响了 6000、7000、8000和9000系列,以及各种移动芯片组。
苹果、Dell和HP出售的含有英伟达芯片组的笔记本,全部受到影响。而糟糕的,就是英伟达的处理方式。起初,它拒绝承担责任,苹果、Dell和HP怒而对英伟达提起集体诉讼,迫使英伟达同意更换已售出的有缺陷GPU。
从此,苹果和英伟达的关系可以说是彻底破裂,英伟达再也没有被设计进任何一份苹果产品中。
甚至,苹果不惜选择性能和功耗更差的AMD GPU,甚至和AMD合作开发了一款在笔记本中使用HBM的定制GPU。
所有这些历史包袱,都会让苹果对再次依赖英伟达,感到心里打鼓。
苹果「芯」的未来
M2 Ultra推出只是苹果给出的一个临时的解决方案,并在逐步开发更强大的芯片。
不过,目前M3 Ultra已在内部取消。
M4 Ultra还未投入生产阶段,甚至可能会被搁置,成为下一个夭折的产品。
而目前,这些芯片还没有针对大模型所需的计算完成优化,其神经引擎结构带宽严重不足,需要加以改造,才能适配。
不过,苹果并不会去依赖其他芯片供应商,去帮助自己开发AI芯片。
我们可能看到,苹果授权使用高速串行通信()技术,去设计开发数据中心的专用芯片。
但,这一过程还需要数年的时间,目前还处于构想阶段。
因此,在今年和明年,我们仍将看到苹果和Mac mini上,使用增强版的苹果芯片。
在AI PC时代「迎头赶上」
在大模型方面,毋庸置疑,苹果目前的成果无法和GPT、或者等系列相提并论。
然而,继微软提出AI PC之后,可以预料到,AI与硬件和操作系统进行更深度的集成是大势所趋。
苹果想要继续走在智能硬件的前沿,就必须拿出有竞争力的AI模型,提供符合「苹果风格和价值观」的AI服务。
然而,他们似乎并没有储备足够的算力和AI人才来训练自己的AI大模型。
虽然App Store已经提供了应用的下载,但作为一个倾向于高度垂直整合的公司,做到这一步远远不够。
彭博社披露称,苹果已经与达成协议,并正在和谷歌、讨论,也许这类成熟的模型会直接被集成、封装在在苹果设备上,并使用与苹果品牌形象一致的系统。