OpenAI 自研 AI 芯片计划新进展:从谷歌 TPU 团队招募顶尖人才
6月9日消息,据报道,生成式AI技术大厂自研AI芯片的计划已经有了新的进展,该公司正积极从谷歌TPU团队招募顶尖人才,以扩大其芯片研发团队。
报道称,计划将目前仅有数人的芯片研发团队扩大至数十人,并且几乎所有新招募的研究人员均为谷歌TPU团队的前员工。谷歌的TPU是专为机器学习和神经网络计算而设计的专用处理器,以其出色的运算性能和能源效率著称,目前已经发展到了第六代。
此前的报告显示,自2015年推出自研的TPU以来,尽管谷歌没有对外出售自研的TPU,但其去年自用的TPU芯片量已经突破了200万颗大关。今年一季度谷歌已经仅次于英伟达和英特尔,成为全球第三大数据中心芯片设计厂商。
不过,英伟达的AI GPU属于是通用型的AI加速芯片,而谷歌的TPU则是专门针对谷歌自身的云端AI应用需求而定制的加速芯片。因此,对于来说,谷歌的TPU研发人才才是所需要的。这也不难解释为何会选择从谷歌TPU团队挖人来组建自研AI芯片团队。
据了解,为挖角来的人才提供的不仅仅是具有竞争力的薪酬,还包括了股权激励,这对于高级研发人才来说极具吸引力。而且加入的团队成员将有机会参与从零开始的创新设计过程,尝试更激进的方法,比如构建由数百万个加速器组成的系统。当然,这需要庞大的资金来支持。
其实早在今年年初,业内就有传闻称, 首席执行官山姆·奥尔特曼 (Sam ) 正在筹集7万亿美元的资金建设来自研AI芯片,及建设半导体生产设施生成AI芯片。
随后,Sam 虽然否认了将要筹集7万亿美元资金的消息,但是他仍强调,“我认为每个人都低估了AI计算的需求”。至于这些需求得要多少座晶圆厂才能满足,Sam 则不太确定。他相信,“AI计算是一种不同类型的商品,这更像是能源,某个价格下有一定数量的需求,但在较高价格下需求较少。”
显然,Sam 对于当前AI芯片高昂的价格并不满意,认为这抑制了的需求,限制了其对于AI的发展。
目前在其流行的 Chat GPT 服务中主要使用的是 英伟达() 的 A100 和 H100 GPU。根据 资深分析师Stacy 分析,每次查询的成本约为0.04美元,如果查询量成长至谷歌搜索规模的十分之一,最初需要部署价值约481亿美元的AI芯片投入运算,每年还需要价值约160亿美元的芯片才能维持运作。
显然,如此巨额的芯片采购成本投入,对于来说是难以负担的。但是,又难以寻找到更为廉价的满足其需求的AI芯片供应商。目前在云端AI芯片市场,英伟达可谓是一大独大,占据了全球90%以上的市场,并且由于需求旺盛,供货也一直是比较紧张。
Sam 此前也曾表达了他对 GPU 短缺以及在此类平台上运行人工智能软件所需的巨额费用的担忧。因此,对于来说,如果其自身对于AI芯片需求量足够大的话,那么自研AI芯片则是一个既能满足自身业务需求,又能降低成本,还能摆脱对于英伟达的依赖,提升供应链安全的可行的方法。目前,亚马逊AWS、谷歌、微软、阿里巴巴等云巨头都有自研AI芯片。
至于传闻也将自建晶圆厂来生产自研的AI芯片的传闻,芯智讯认为,即使有这个考虑,也是难以实现的,毕竟目前晶圆代工市场非常的成熟,尖端制程技术仅有台积电、英特尔、三星这三家厂商掌握,并且投资巨大,没有必要加入这个对于它来说完全陌生的竞争市场。
所以,更为现实的来看,自研AI芯片然后交由台积电等晶圆代工厂生产更为可行。业界普遍预计,的第一代自研芯片将在2027年底前推出。