百度一季报:智能云收入贡献度提升
AI大模型领域的竞争日渐白热化之际,百度在一季报中表示:智能云业务带动收入进一步增加。
5月16日,百度集团披露的2024年第一季报显示,今年一季度该集团实现营收315亿元,同比增长1%;归属百度的净利润(非通用会计准则)为70.11亿元,同比增长22%。百度核心营收为238亿元,同比增长4%;归属于百度核心的净利润(非通用会计准则)66.28亿元,同比增长26%。
财报发布后当晚,百度美股涨1.66%,收报112.59美元/股。5月17日,百度集团H股开盘后涨近4%。
智能云收入贡献度提升
券商中国记者注意到,去年以来,百度智能云业务板块在营业收入的贡献度正在加速提升。
从百度收入构成来看,百度在线营销收入为170亿元,同比增长3%。2024年3月百度App月活用户达6.76亿,同比增长3%;非在线营销收入为68亿元,同比增长6%,百度称“主要由智能云业务带动”。
百度联合创始人兼首席执行官李彦宏在年报中表示,百度核心业务的在线营销收入保持稳定,百度对人工智能技术栈的端到端优化,继续推动了一季度智能云收入的增长。
此外,据财报披露,今年1~3月,百度旗下自动驾驶出行平台萝卜快跑供应的自动驾驶订单约82.6万单,同比增长25%。截至今年4月19日,萝卜快跑累计为公众提供的自动驾驶出行服务订单超过600万单。就在日前,百度还公布了其自动驾驶的总里程数,截至今年4月,累计行驶里程已超过1亿公里。
5月16日晚,李彦宏在电话会上透露,今年一季度智能云业务的收入达到47亿元,同比增长12%,来自生成式人工智能和基础模型的收入占智能云业务收入的6.9%。越来越多企业在百度公有云上开发AI原生应用,这也带动智能云业务的收入。
百度智能云事业群总裁沈抖在电话会上表示,实际上从去年下半年以来,百度智能云收入增长已经加速,去年第三、第四季度分别同比增长11%和12%;今年第一季度继续保持了12%的同比增速。
天风证券日前发布的研报认为,百度受益于AI对云驱动影响和公司文心大模型系列推理成本显著降低,叠加轻量模型相较开源模型优势,云业务额外收入增量重心由模型训练过渡到模型推理,推理成本显著降低带来的增量反哺云业务,有望带动云业务发展。
AI大模型赛道鏖战正酣
近日,包括谷歌、、字节跳动、阿里云和腾讯在内的国内外大厂推出和迭代重磅AI大模型版本。激烈市场竞争下,哪些厂商成为AI大模型市场的主要玩家并保持领先地位,也成为了业内关注的焦点。
放眼国外,谷歌和纷纷祭出重磅“杀器”。
5月15日,谷歌在I/O开发者大会上推出最新多模态AI产品,包括由升级后模型驱动的万能AI助手 Astra和对标Sora的文生视频模型Veo。Veo具备生成1080p高清视频的能力,用户可以通过文本、图像、视频等各种格式提供提示。
5月14日,美国人工智能公司最新发布了GPT-4o多模态大模型,相较于GPT-4 Trubo速度更快、价格也更便宜,最突出特点是在与人的交互方面更为自然。称,GPT-4o可以检测人的情绪,并以类似人类或机器人的语调与用户交谈。
在AI大模型竞争中,国内厂商也不甘示弱,多家大厂也密集发布重要迭代更新。
5月15日,字节跳动正式发布旗下自研AI大模型“豆包大模型”,据介绍,该款大模型当前日均处理量为(表示和传递信息的标识符)文本,生成3000万张图片。
5月14日,腾讯宣布其旗下混元文生图大模型全面升级,并对外开源。这也是首个中文原生的类 Sora 架构开源模型,填补了国产大模型在文生图先进架构上的空白。
5月9日,阿里云正式发布通义千问2.5。相比上一版本,2.5版模型的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%。据介绍,在中文语境下,通义千问2.5的文本理解、文本生成、知识问答、生活建议、闲聊、对话、安全风险等多项能力赶超GPT-4。
使用成本“卷”入新低
AI大模型“百模大战”日趋白热化,而一些厂商在产品定价方面似乎有“价格战”之势。
券商中国记者注意到,字节跳动发布会当日,有关负责人将豆包大模型与包括GPT4、文心大模型4.0、通义千问2.5共三款国内外主流大模型的使用价格进行了对比,并突出强调其“比行业价格低99.3%”。
此举也引发了百度的公开回应。5月15日晚间,百度方面透露文心大模型的日均处理文本已达2490亿,同时表示“使用大模型不应该只看价格,更要看综合效果,只有让AI应用效果更好、响应速度更快、分发渠道更广,才能让人们切实感受AI为社会生产带来的便利。”
值得一提的是,4月16日,李彦宏在 2024百度AI开发者大会上透露,文心一言和文心大模型的用户数突破了2亿,API日均调用量也突破了2亿,服务的客户数达到了8.5万。
此外,对于此前AI大模型开源还是闭源这一话题,李彦宏也在内部讲话中进行了回应。他表示“大模型开源意义不大,闭源才能走通商业模式”,闭源是有真正的商业模式的,是能够赚到钱的,能够赚到钱才能聚集算力、聚集人才。在他看来,“闭源在成本上反而是有优势的,只要是同等能力,闭源模型的推理成本一定是更低的,响应速度一定更快”。
华泰证券日前发布的研报分析称,在AI大模型的商业模式和竞争格局方面,可能形成赢者通吃或国内外寡头竞争的局面,而行业大模型则有望百花齐放。目前“基础大模型”到“行业大模型”再到“终端应用”的大模型路线非常清晰。训练基础大模型的高成本和高技术壁垒,决定了科技巨头或成为主要玩家。