草莓模型即将登场,处理复杂问题更拿手,或比 GPT-4 更出色

aixo 2024-09-12 00:04:57
大模型 2024-09-12 00:04:57

The 还预测,目前为付费(每月20美元)的客户,会比免费用户更早访问首个草莓模型。

处理复杂问题更拿手

据悉,草莓会比GPT-4o更擅长复杂的问题,或多步骤查询。

目前,如果用户想在中得到理想的答案,往往还需要输入各种格外的。

比如用「连贯思维提示」,让通过中间推理步骤来得出答案。

而草莓可能会避免这种麻烦,让用户一步得到结果。

这也就意味着,草莓不仅在数学和编码问题上会更好,还会更擅长主观的商业任务,比如头脑风暴一个产品营销策略。

爆料人表示,草莓的思考步骤,会避免它出错。

而多思考的那十秒到二十秒,会让它更可能知道,何时要向客户询问后续问题,来完成对他们的解答。

多思考20秒是鸡肋?

然而两位人士透露,还需要再解决一些问题。

比如,理论上讲,草莓应该能够在用户提出简单问题时,跳过其思考步骤。然而在实际应用中,模型并不总是这样。

它可能会错误地花费过多时间,来回答那些其他模型很快就能回答的问题。

openai创始人_openai官网中文版_OpenAI

用过草莓模型的人抱怨说,跟GPT-4o相比,草莓的回复只是稍稍更好一些,但并没有好到值得用户去等10到20秒。

OpenAI_openai创始人_openai官网中文版

另外,希望迎合用户的这一特定偏好:在回答新问题前,草莓会记住并且整合与用户先前的聊天记录。

这个细节非常重要,比如如果用户希望软件代码以某种格式书写的时候,这种能力就非常有用。

然而令人沮丧的是,草莓并不总是能做到这一点。

网友吐槽:还要挤多久?

冷知识:距离发布GPT-4,已经过去了一年零六个月。而新模型的影子,至今还没看到。

的草莓,来来回 回炒作了好几遍。狼来了的故事来了太多次,网友们都快麻了。

openai官网中文版_OpenAI_openai创始人

别家都是要发模型就干脆利落地发,只有它把同一个话题来回来去地炒,就是不发真东西。

奥特曼之前晒出花园里的草莓照,就曾一度引起轩然大波,然而最终却无事发生,这种「谜语人」的操作难免令人生厌。

现在提起,很多群众的第一反应就是——

openai官网中文版_OpenAI_openai创始人

没错,它已经逐渐沦为「炒作」的代名词。

更有网友做出梗图,调侃道:发布新模型的姿势是这样的——

openai创始人_OpenAI_openai官网中文版

这样的——

openai创始人_OpenAI_openai官网中文版

以及这样的——

OpenAI_openai官网中文版_openai创始人

本来在大模型领域,是遥遥领先的领导者。但如今,竞争者们早已后来居上了。

上个月,谷歌就推出了AI语音助手 ,能够灵活处理用户的突然中断和话题变化。

要知道,在五月就首发了「Her」的功能,然而这个语音助手GPT-4o Voice随后却推迟了发布,原因是在提高安全措施,确保模型拒绝不当内容。

如今正值草莓模型的发布前期,可能也在做类似的准备。

而最令人失望的一点其实是,跟前两年的如火如荼相比,今年的发展似乎已经停滞了。

openai创始人_OpenAI_openai官网中文版

与此同时,模型的计算量、参数大小、数据集大小,都纷纷遭遇瓶颈,开源模型和闭源模型的能力也在逐渐缩小。

是不是因为没有不够的GPU,所以我们现在依然离AGI如此遥远?

openai创始人_openai官网中文版_OpenAI

如何破局?用RL

打破瓶颈的方法,如今各家都走到了同一路径——Self-play RL。

openai创始人_OpenAI_openai官网中文版

在LLM领域,自我博弈理论看起来就像是AI反馈

3.5就是基于Self-play RL做出的,因此代码能力强到突出。

而我们都知道,草莓有一个重要作用,就是给下一代大模型合成数据,这里面有个前提,就是它同样是基于新范式Self-play做出的。

很多LLM的弱点就在推理能力上,而有些初创公司为了提高它们的推理能力,就采用了一种廉价的技巧,将问题分解为更小的步骤,尽管这些方法速度慢且成本高昂。

openai创始人_OpenAI_openai官网中文版

就是通过Self-play学习,击败了李世石

在草莓中,我们也看到了类似的思路。

用Self-play RL去验证,自然就能让草莓的数学和代码能力上飞速暴涨。

同样,付出的代价就是极高的推理成本,导致它又贵、又慢。

但得到的结果,是极高的智能,或许启发我们通往AGI的路线,就靠草莓这种思路了。

说起来,「草莓之父」,其实就是已经离职了的的首席科学家Ilya 。

OpenAI_openai官网中文版_openai创始人

据悉,的一些人认为Q*可能是在AGI上取得的一个突破

在Ilya离职之前,的研究人员Jakub 和 Sidor,在Ilya的工作基础上开发了一个新的数学求解模型Q*。

据称,Q*解决的此前从未见过的数学题。

Ilya做出的突破,使不再受限于获取足够的高质量数据来训练新模型,而这,正是开发下一代模型的主要障碍。

另外,在去年Q*的前期准备中,研究人员开发了一种被称为「测试时计算」的概念变体,目的是提升LLM的问题解决能力。

这样,LLM就会花更多时间考虑被要求执行的命令,或问题的各个部分。

当时,Ilya发表了一篇与这项工作相关的博客,展示了模型如何解决了数个极有难度的数学问题。

比如在下面这道题中,GPT-4成功执行了一系列复杂的多项式分解。

openai创始人_openai官网中文版_OpenAI

openai创始人_openai官网中文版_OpenAI

openai官网中文版_openai创始人_OpenAI

基于这类技术做出的草莓,虽然更贵、更慢,但数学和推理的进步无疑是惊人的。

或许对于普通用户,它未必是一个更值得付费的产品。

但对于需要高阶能力的场景,草莓会更有发挥的余地。

大佬猜测:谷歌论文疑似揭示方法

有趣的是,Menlo风投负责人、前谷歌搜索工程师 Das发推称: 在最近一篇论文中提出的方法,可能就是在上用的。

OpenAI_openai创始人_openai官网中文版

论文提出,让LLM进行更多的「测试时计算」(test-time ),对于构建能在开放语境下操作、能实现自我提升的agent,是关键的一步

而这篇论文就重点研究了扩展「推理期计算」(-time )这个问题。

如果允许LLM使用固定但非平凡量的推理期计算,它在应对具有挑战性的提示词时,可以有多少性能提升?

这个问题不仅影响LLM的可实现性能,还关系到LLM预训练的未来,以及如何在推理计算和预训练计算之间进行权衡。

为了回答这个问题,研究团队分析了扩展测试时计算的两种主要机制:(1)针对密集的、基于过程的验证器奖励模型进行搜索;(2)根据测试时得到的提示词,自适应更新模型对响应的分布。

结果显示,在这两种情况下,对测试时计算的不同扩展方法的有效性,很大程度上取决于提示词的难度。

OpenAI_openai创始人_openai官网中文版

论文地址:

基于此,研究团队提出了一种「计算最优」扩展策略——通过为每个提示词自适应地分配测试时计算,使测试时计算的扩展的效率提高4倍以上。

另外,在FLOPs一致的评估中,对于那些较小的基础模型已取得一定程度非平凡成功率的问题,测试时计算可以使其超越规模大14倍的模型。

openai创始人_OpenAI_openai官网中文版

OpenAI_openai官网中文版_openai创始人

不过,网友们对这一猜测并不认可。

首席执行官Aidan 表示,谷歌探讨的是最佳N采样和蒙特卡洛树搜索(MCTS)。

而「草莓」可能会是一个具有特殊token(回溯、规划等)的深度混合模型。它可能会通过人类数据标注者和来自易于验证领域(如数学/编程)的强化学习进行训练。

openai创始人_OpenAI_openai官网中文版

另一位网友也提出疑问——「草莓」不是一个神经符号模型吗?

openai官网中文版_openai创始人_OpenAI

对此,Deedy解释道:「根据网上的这些信息和传闻:『草莓』将通过在响应空间中使用搜索技术来改进推理,其推理时间计算为10到20秒。」

而这,正是这项研究所解释的内容。

openai创始人_OpenAI_openai官网中文版

参考资料: