Is Scaling All You Need? LLM收益递减,AI小厂难活命

愤怒的蜗牛

Scaling law走到尽头了吗?

近日,马库斯的一句「Is scaling all you need?」引发了正反两方的论战。

Is Scaling All You Need? LLM收益递减,AI小厂难活命

马库斯表示,距离GPT-4发布已经过去了14.5个月,在那之后,又有大约有500亿美元投资在芯片上,但仍然没有模型能够真正打败GPT-4。

It's now 14.5 months post GPT-4, and roughly $50B in chipspost GPT-4, and still nobody has decisively beat it.

Many have converged in roughly the same place.

That's *evidence*. Each day that passes without a further breakthrough is more evidence that it is time to consider alternatives.

业界和学界砸了这么多资源在LLM上,但证据似乎表明,我们已经很长时间停滞不前了。

Is Scaling All You Need? LLM收益递减,AI小厂难活命

展望未来,模型性能提升所需的算力已经很难满足(远超摩尔定律),

Is Scaling All You Need? LLM收益递减,AI小厂难活命

Is Scaling All You Need? LLM收益递减,AI小厂难活命

而又有研究表明LLM性能的线性增长,很可能需要指数级的数据,

Is Scaling All You Need? LLM收益递减,AI小厂难活命

——「也许,是时候考虑替代方案了。」

德克萨斯大学心理学教授Art Markman表示,「我们已经把所有数据都榨干了」。

Is Scaling All You Need? LLM收益递减,AI小厂难活命

归根结底,这与模型的大小无关,而是与语言统计结构中的信息量有关。我认为我们已经从这些数据中榨取了所有可能的东西。除非我们开发出强大的方法,把LLM链接到基于符号知识的模型,否则我们就触及天花板了。

另有专业人士认为,问题出在数学层面,「我们现在处于一个平台期,因为大部分数据已经被消耗掉了,而使用模型自己生成的数据会破坏系统」。

Is Scaling All You Need? LLM收益递减,AI小厂难活命

「除非再次改变整个结构,否则大多数人工智能将逐渐消失」。

Is Scaling All You Need? LLM收益递减,AI小厂难活命

Scaling is all you need.

对此反方表示,你们太消极了,咱们这不是天天都有进步吗?

模型越来越小,速度越来越快,并且能保持接近SOTA的性能,——还要啥自行车?

Is Scaling All You Need? LLM收益递减,AI小厂难活命

「Llama 3 70B比GPT-4(1.8T参数)小约25倍,性能相似。GPT-4o的大小可能是GPT-4的一半,但性能优于GPT-4,并且包括音频和图像生成。」

Is Scaling All You Need? LLM收益递减,AI小厂难活命

还有网友说,你又没看到在10倍算力和10倍数据上训练的模型,怎么能说撞墙了?

Is Scaling All You Need? LLM收益递减,AI小厂难活命

我们已从数据中榨取一切

许多迹象表明,我们已经进入了回报递减的时期。

我们都知道GPT-3比GPT-2好得多,而GPT-4比GPT-3好得多,——但之后呢?

OpenAI曾用这张图表来吹捧GPT-4 Turbo在过去一段时间的改进:

Is Scaling All You Need? LLM收益递减,AI小厂难活命

确实看上去有一些提升,但问题是,从长期的历史数据来看,进步的比例有多少。

马库斯在自己的博客中给出了下面这张图:

Is Scaling All You Need? LLM收益递减,AI小厂难活命

能作为对比的基准测试只找到了MMLU,里面也没有GPT 3.5,算是管中窥豹吧。

当然了,没有再进步的一个原因可能是触及基准测试的上限了,毕竟100分很可能只是代表着过拟合。

所以,让我们来看另一项有趣的测试:来自《纽约时报》的Connections游戏。

聪明的人类可以在任何给定数据上获得90以上的分数,但目前的模型得分还比较保守,完全不存在摸到天花板的问题。

Is Scaling All You Need? LLM收益递减,AI小厂难活命

我们可以看到,在性能获得巨大飞跃之后,GPT-4系列好像就熄火了。

那堵墙要来了

从另一个角度看,模型的性能似乎也正在收敛。

下图给出了开源和闭源两个阵营的战况:

Is Scaling All You Need? LLM收益递减,AI小厂难活命

红点代表的闭源模型领先于同时期的开源模型,但通过拟合红绿双方的数据,我们可以发现,开源和闭源的性能差距在逐渐缩小。

另外,从2022年大模型爆火到今天,LLM仍然会时不时犯一些愚蠢的错误,幻觉问题也依然没有得到解决。

比如已经学会画图的ChatGPT,仍然可能不会数数:

Is Scaling All You Need? LLM收益递减,AI小厂难活命

Is Scaling All You Need? LLM收益递减,AI小厂难活命

如果LLM无法解决自身的问题,如果人们对于GenAI的热情开始减弱,这个领域的市场估值将会暴跌。

当然,AI不会消失,LLM也不会消失,而是会成为一种近似的工具占有一席之地,但那个黄金时代再也不会到来了。

AI 小厂苦苦挣扎

在Sequoia Capital的一项统计中,初创公司大概花了500亿美元购买NVIDIA的芯片来训练大模型,

但结果是,他们总共只赚了30亿美元,——这样的买卖显然做不成。

大多数公司都在苦苦挣扎,寻找能赚钱的路子,另一方面,迫于经济压力,很多公司也在裁员或者转型。

最近几周,Inflection AI基本上关闭了商店,首席执行官和大部分员工已经离职加入了微软;

Is Scaling All You Need? LLM收益递减,AI小厂难活命

Character.ai的产品很受欢迎,但报告的年收入仅有不到2000万美元;

Is Scaling All You Need? LLM收益递减,AI小厂难活命

基于LLM的自动驾驶公司Ghost关闭了商店;

「差点取代了程序员」的AI编码系统Devin受到严重质疑;

Is Scaling All You Need? LLM收益递减,AI小厂难活命

还有早已不再「stable」的Stability AI,风雨中飘摇但身残志坚,发不起工资也不耽误开源,如今四处找钱寻求「卖身」。

除了头部的OpenAI和Anthropic,大部分AI小厂的日子都不好过,哪怕是曾风光一时的独角兽,没有靠谱的商业模式,钱烧完也就完了。

一位AI领域的CEO表示,风险投资者也开始变得谨慎了,希望控制成本,希望看到收益。

生成式AI的初创公司目前也倾向于选择计算需求较小的道路,省钱、省电、省人,赶紧想办法搞钱,而不是先给英伟达爸爸上贡。

Is Scaling All You Need? LLM收益递减,AI小厂难活命

同时,我们也看到了开源模型的崛起,Meta和Mistral等公司为世界提供了更低成本的解决方案,小厂可以在此基础上前进。

AI产业的整条链路上,最不担心的就是老黄了。

老黄表示,聊天机器人正在向多模态迈进,对于图片和声音的处理会消耗掉所有的GPU。

而且有很多GenAI初创公司还拿不到所需的GPU,老黄估计有15,000到20,000个不同领域的公司都需要训练端到端模型。

然而,这些模型的大小以及他们需要的计算能力如何,还是一个问题。

Is Scaling All You Need? LLM收益递减,AI小厂难活命

我们通常认为英伟达的最大客户是那些大型云服务提供商,但自动驾驶、边缘计算、机器人等,已经成长为一个巨大且重要的市场。

特斯拉有几百万辆汽车行驶在世界各地,终端和云端都需要处理大量的数据。

马老板买了35000个GPU,这还只是个开始,未来这个领域的变化会非常快,会有更多的新动态,和层出不穷的新技术。

在这方面,很多公司应该向马老板学习,先赚到钱才是王道。


您需要 登录账户 后才能发表评论

发表评论

快捷回复: 表情:
AddoilApplauseBadlaughBombCoffeeFabulousFacepalmFecesFrownHeyhaInsidiousKeepFightingNoProbPigHeadShockedSinistersmileSlapSocialSweatTolaughWatermelonWittyWowYeahYellowdog
评论列表 (暂无评论,169人围观)

还没有评论,来说两句吧...

目录[+]

取消
微信二维码
微信二维码
支付宝二维码