AI 行业最新发展趋势:贪吃蛇与俄罗斯方块的比喻及策略挑战

aixo 2024-05-30 13:14:03
大模型 2024-05-30 13:14:03

文章摘要

本文总结了AI行业最新发展趋势,从贪吃蛇与俄罗斯方块的比喻入手,探讨了大公司和创业公司在LLM时代的不同策略和挑战。

• AI行业更像,而不是

• 大模型时代的贪吃蛇和俄罗斯方块比喻

• 教育领域是国内最大的AI应用方向

共识粉碎机从本季度开始推出新的季度文章系列《季度AI观察》,期望通过与行业内最前沿的一线创始人/从业者们交流了解每个阶段大家的所思所想。

本次作为观察者参与了组织的AI Panel。季度研究线下会,是一个投研组织,季度会主要参与者为AI公司创始人、工程师、科学家和行业组织等。本期通过为期3小时的脑暴交流,感受到了AI行业第一年的变化。

一、贪吃蛇与俄罗斯方块

在《》中,我们提到了一个有趣的现象“为什么LLM第一年没有颠覆大玩家?”。

成熟的大公司在LLM元年,没有一家被弯道超车。

听完这次Panel,如果用一句话总结:“AI在现在更像,而不是。”

Panel中提出了一个有意思的观点,LLM时代的大公司就像贪吃蛇:

贪吃蛇们也正像我们熟知的游戏里一样,非常有规划地吸纳所有力量:

而相比贪吃蛇们,剩下的LLM创业公司则更像在玩一场俄罗斯方块游戏:

在任何一个时代创业公司都像俄罗斯方块,但AI时代的难度看起来更大:

二、贪吃蛇的存钱罐与触手

这一期的贪吃蛇们非常强劲,有很强的循环造血能力。

就像我们在讨论LLM时代最大的贪吃蛇微软时:

Panel有个有意思的话题:“为什么Azure API卖得比 API还好”。

“AI超级个体”、“AI小公司赚大钱”是最近常见的叙事,但上有一个惊讶的观点是“LLM可能会让大公司们打破壁垒变得更加庞大”:

三、贪吃蛇也没有秘密

在大模型时代最大的贪吃蛇是+微软的组合。

是大模型时代的登月者,在登月的过程中,其中的和技术思想也在不断向外扩散。

GPT4在硅谷已经几乎没有秘密了:

虽然代表的先进模型没有秘密,但我们仍然很难想象出下几代模型的含义:

四、中国的方块与美国的方块

不同的土壤让创业者也出现了不同的方向。

移动互联网时代为中国培养了一批优秀的产品经理,产品经理定义需求和场景。

云计算时代为美国培养了一批优质的软件客户和擅长找到PMF的软件从业者,他们的入手点多从生产力提效开始。

美国有非常多Niche的小AI应用公司:

但与美国不同,中国的AI企业一开始就面临困难模式:

这也使得AI应用的方向与美国有很大的区别:

五、模型公司的下一步

“做的是登月工程。跟着后面走,会忘了还有开源社区,还有产品和客户需求。”

在与模型公司和创业公司的对话中,我发现模型的SOTA不是最重要的:

这也使得中国的模型公司更多开始考虑场景与需求的意义,理性看待自己定位:可能难以和竞争登月者的角色,但可以做出最适合客户的模型。

Panel中我还发现模型公司开始尝试做自己的应用产品:

六、应用公司的下一步

为什么现在还没有看到令人兴奋的国内AI应用?在每一场讨论会中,都是最大的焦点。

我在这次Panel中听到了一线创业者的反思与尝试。

一位创业者反思了过去做语言模型中出现的问题:

也看到了生产力提效创业者爱设计/AI PPT赵充的初步成功:

一款优秀的AI产品,在专注AI的同时,可能不需要将AI挂在嘴边:

相比2023年看到的很多Model as 产品,找场景的意义远大于秀肌肉:

有一位希望打造AI原生应用的创业者提到了一个问题:

在这次Panel中,我听到了非常多的点子。

诚然说还没有听到一个非常大场景,非常令人震撼的创业方向。

但就像前面说的,中国的AI应用创业者,就算从小事情起步,也都在想属于自己的大事情。

七、教育领域是国内最大的方块

在这次Panel上提到的最多应用想法是教育。

教育作为一个天然的存量大市场同时兼具2C+AI属性,并且已经在很多领域看到了AI尝试。

首先看到了录播课、作业批改等形式正在被AI改造:

而中国教育公司在进入全球AI市场时候也有自己独特的优势:

除了教育产品,与会还有创业者正在探讨应用LLM做学生的知识储备测评,阅读能力测评,进而可能帮助到书本等内容定级、内容匹配。

八、Sora如何改变世界

对这个时代最大的贡献是领路人,通过最多的人才、钱和资源将AGI的方向指出来。

如果说当GPT4刚出来的时候,因为没有足够的公开信息,大模型追赶者们可能还不确定能否复现。但当Sora出来后,第一反应已经是可以复现,更多是资源和工程问题。

Sora复现的方向和难点:

到复现节点来看,克服以上难点并且成功复现可能需要6~8个月的时间,但快速迭代的能力也非常强,可能届时已经有Sora 2出现。同时尽快开放给2C用户,也会收集更多的用户反馈。

Sora也同时带来了模型公司排期的变化,过去都会优先训练大模型,或者先做LLM再做多模态。但现在更可能同时做,同样重要。

训练LLM模型需要基于 Law,效果提升遵循对数指标,边际提高越来越困难。但在多模态的早期更像是直接取得线性效果,提升更加明显。

Sora的出现也可能对内容生态有很大冲击:

九、我们在1.0,即将进入2.0

现在的我们更像是站在LLM时代的1.0阶段,1.0阶段反馈在算力芯片和模型自身。这次的Panel也更多是在探索和讨论1.0阶段国内外最前沿AI从业者的思考与见闻。

进入2.0阶段,将是以应用为代表的叙事。

在这次Panel中,的前研究员,现 的合伙人Jenny Xiao也分享了自己的看法:

大卡车模型_大模型_模型大师