英伟达市值飙升,GPU 芯片助力人工智能发展
时间回到2022年11月,此时英伟达的股价近乎腰斩,跌至不足3000亿美元。
就在这个时候发布了聊天机器人,这一基于生成式人工智能的AI Bot,一时间成为了科技界的头条。此时,甚至创始人慌乱,回来紧急发布应对策略。因为在这个时候大家不知道它是如何实现的。
英伟达GPU芯片可以加速AI基础模型的训练,同时具有完善的CUDA平台,它抓住了向上的“新风口”,其股价开始回升,市值逐步恢复。
到2024年的今天,仅仅两年过去,英伟达市值达到3.012万亿美元,成为了全球市值第二的公司。
英伟达的GPU芯片依然在加速生产中,而且他们现在拥有至高无上的定价权,每个人训练大模型的公司都必须接受用金汤匙喂养他们的东西。
当前H100的毛利率超过85%,可以说英伟达成了AI2.0时代最赚钱的公司,没办法卖“铲子”的总比“挖金矿”的要先一步挣到钱。
而对于这波风口上的大模型公司来说,所有人都在关注无利可图的支出还将会持续多久。当前大模型创业公司的明确目标还是在赶上甚至超越,以及构建更大性能更好的模型,来挣取更多的预期收益。
而也一样,必须不断推出新的震撼世界的产品,同时推出可以直接触达用户的产品,否则它将陷于Meta和包围之中。
优势在缩小
当前许多公司在聊天机器人ELO方面与最新的GPT-4相差无几,而在上下文长度和视频模式等某些方面,一些公司已经领先。
前不久Sora和GPT-4o的发布,并未引起像刚发布时引爆的破圈讨论风潮,这是因为刚发布时,我们并不知道它是如何实现的,我们也不知道如何追赶。而现在我们基于开源基础模型,可以大概判断出其实现的技术方案,只是需要时间来进行复现而已。
显然,只要有足够的计算能力,最大的科技公司都可以匹敌的GPT-4。据传,阿里最新发布的Qwen-2.0的开源模型已经可以比拟GPT-4 Turbo,Meta的Llama 3 405B也将在开源的同时匹敌GPT-4, 2 Ultra已经在各方面超越GPT-4 Turbo。
现在的优势之一是他们在收集使用数据方面一直处于领先地位,但这种情况相信很快就会改变。所以才说人才是第一位的,其他没有什么是不可替代的,也在不断的开出百万美元的年薪从Meta和等竞争对手的公司挖人。
如果没有不断的推出新的技术产品,可以说其技术优势正在逐渐缩小。
微软与的合作关系
虽然说微软宣布将为投入超过100亿美元的资本支出,而且这其中还有一大部分事用于推理,以便在自己的产品和服务中部署模型。
由于的怪异结构,微软也并未完全押注于,一大部分资源被用于微软自己开发的模型上。
是一个非营利组织,其主要目标是创造安全且造福全人类的通用人工智能(AGI)。可以而且会违反允许微软访问模型的协议,而微软对此没有任何追索权。
这是因为仍然是一家完全独立的公司,由 管理。微软是无投票权的董事会观察员,没有控制权。AGI明确地排除了所有商业和IP许可协议。对于微软来说,最令人担忧的是,董事会可以在没有任何微软投票的情况下随时决定他们已经实现了AGI。
虽然说现在的产品可以通过微软来直达消费者用户,但他们之前并非完全背靠背的合作关系,依然需要寻求独立的产品路线。
而微软也在减少对的依赖,包括和Bing计划。微软最新发布的Phi-3模型,使用来自大型模型的大量合成数据训练小型模型,效果非常出色。其次,微软也正在使用MAI-1~500B参数MOE模型,利用了预训练团队及其数据集,并结合了微软自己的一些合成数据,来训练自己的GPT-4类模型。
终端产品已成王道
的缺点其实非常明显,它并没有拥有像Meta和可以更直接地接触消费者终端流量产品。
相比于的浏览器,Meta的聊天软件,的用户量还是比较少的,而且其中大多数只使用过几次,不会继续使用它。
未来的大多数可以预见的消费者,将通过现有平台来使用大语言模型,包括、、、、/。
虽然Meta尚未找到如何将赚钱的方法,但他们的Meta AI(由Llama 3 70B提供支持)已在、和上可用。
并且已宣布的推广范围已扩展到包括美国在内的14个国家/地区,这些国家/地区的总人口为11亿。大量用户已经可以使用比免费模型更好的模型。Meta AI正处于其增长曲线的早期阶段,距离实现其32.4亿每日活跃用户群的目标仅完成了三分之一。
也宣布将AI融入了办公工具中,使得Gmail、 Drive、Docs、和都可以一键使用AI,同时未来也将打造新的搜索—-用AI组织搜索,同时生成式人工智能模型添加到广告服务中,探索赚钱方法。
所以在这个背景下,推出了自己的手机APP和桌面APP,用于直接面向用户,一方面便捷用户的使用,减少使用上复杂操作的时间成本;另一方面可以直接面对用户和占有用户。
此外,也积极与苹果合作,打造新一代的siri,占有这个巨量的终端用户群体。如果真的上独家提供服务,那么将一举成功占用最重要的终端市场。
开打价格战抢占用户
价格战的序幕应由-V2的问世拉开,这款产品以其卓越的性能和低廉的运行成本,成功超越了Meta的Llama 3 70B。
-V2的定价策略极具竞争力,它不仅在成本效益上明显优于市场上的其他竞争模型,而且其价格之低,甚至打破了风险投资支持的推理API提供商之间的价格战局面。这些提供商在为Meta和模型提供服务时,已经面临着亏损的压力。
-V2的推出,无疑在这场激烈的市场竞争中掀起了新的波澜。
声称,一个由8卡H800 GPU组成的节点可以实现每秒超过50,000个解码token的峰值吞吐量,其API定价为每百万输入1元、输出2元。即使在这样的情况下,依然可以实现高达70%以上的毛利率。而且-V2没有照搬国外的开源模型,针对MoE、RoPE和都有全新的创新。
紧接着,智谱AI、字节豆包大模型和阿里Qwen-Long API也都相应的大幅下调价格。百度则直接宣布ERNIE Speed和ERNIE Lite两款模型免费。
则对于非企业用户优先采取了免费优先的策略,虽然有一定的频次限制,但对于非企业用户来说是足够的。这标志着他们将去年的定价模式发生了重大商业模式转变,现在开发者和企业进入了完全补贴消费者的时代。
通过贴补消费者来增加用户使用终端频率和习惯,抢占终端用户市场。对于这些没有大规模终端使用的大模型公司来说,如果创新遇到瓶颈,那么这些拥有直接终端用户的企业公司,将可能快速将其包围。
国内价格战时间线: