您的当前位置:首页 >热瓜 >贾扬清一吐为快:要想赚钱,AI模型到底该大该小? 正文
时间:2025-07-12 11:40:16 来源:网络整理编辑:热瓜
最近的AI社区,关于模型规模的讨论有些活跃。一方面,此前在大模型开发奉为“圣经”的Scaling Law,似乎正在褪去光环。去年大家还在猜测GPT-5的规模“可能会大到想不到”,现在这种讨论几乎绝迹。 杭州学院曝光体验
最近的贾扬AI社区,关于模型规模的清吐钱讨论有些活跃。
一方面,为快此前在大模型开发奉为“圣经”的想赚型Scaling Law,似乎正在褪去光环。底该大该去年大家还在猜测GPT-5的贾扬杭州学院曝光体验规模“可能会大到想不到”,现在这种讨论几乎绝迹。清吐钱大神Andrej Karpathy,为快则是想赚型在感慨大模型规模正在“倒退”。
另一方面,底该大该近期市场上性能优秀的贾扬小型模型层出不穷,参数规模、清吐钱任务处理、为快反应速度、想赚型保障性能,底该大该各公司在不同方面卷了又卷。
究竟是往大做探索极限,还是深圳师范大学门事件推荐往小做迎合市场?
这最终汇总成一个问题:在这样模型快速更迭的市场中,要怎么才能把LLM模型的商业价值最大化?
最近发起讨论的是X.ai创始成员之一的Toby Pohlen。他认为如果模型以指数级速度改进,那么训练模型的价值也会以指数级速度折旧。这也导致人们需要赶在模型更迭前就迅速采取行动获取商业价值,一旦模型产生更新,上一代模型就基本一文不值了。
Toby的这番言论深得老板Elon Musk之心,大笔一挥打了一个“100分”。
贾扬清也参与到了这场讨论中来,他用感恩节火鸡做了一个有趣的比喻。他提出,售卖模型就像是感恩节火鸡促销,必须在感恩节前夕抓紧时间售卖,避免在感恩节到来后的贬值。新模型的工艺更新就是一个又一个感恩节,只有销售得更快才能赚到更多的利润。
(emmm...如果对火鸡不好了解,换成中秋节前抢月饼的故事大家或许应该容易理解一些?)
评论区也有不少人表达了对此观点的赞同。
有人说只要不断地开发新产物和迭代新模型,就能从中持续获得商业价值。
还有人说,模型改进的频率将直接决定模型本身的商业价值。
但是,模型的商业价值由什么决定,又该如何实现?
模型增长在走CNN老路吗?
模型必须做小,用起来才顺手。
比起大型模型,小型模型成本低应用便利,更能收获商业市场的青睐。贾扬清就发现,行业趋势在于研发和使用尺寸更小性能强大的模型,人们也更愿意把规模参数在7B-70B之间的中小型模型作为商业使用的选择。
作为前大模型时代的亲历者,贾扬清在当下LLM模型市场上嗅到了熟悉的味道,先变大再变小变高效,这和CNN时期的模型增长简直一模一样。
贾扬清还对CNN的增长历程做了一个简单的介绍。
首先是2012年,AlexNet开启了模型大小增长的序幕。2014年的VGGNet就是一个规模较大的高性能模型。
到了2015年,模型尺寸开始缩小。GoogleNet 将模型大小从GB降至MB,缩小了100倍,还同时保持了良好的性能。同年面世的SqueezeNet也遵循了追求更小尺寸的趋势。
在此之后,模型增长的重点转移到了维持平衡。比如如 ResNet(2015)、ResNeXT(2016)等模型都保持了一个适中的规模,注重计算效率。
贾扬清还介绍了CNN的一个有趣的应用,Google的MobileNet(2017),占用空间小性能优越,还具有出色的特征嵌入泛化。
最后,贾扬清引用了Ghimire 等人在《高效卷积神经网络和硬件加速调查》里的一张图:
他还进一步发问,LLM模型未来会遵循和CNN一样的增长趋势吗?
不过贾扬清也补充道,虽然行业趋势是模型小型化,但并不意味着号召大家放弃尺寸更大的模型。
但这随之而来的是另一个问题:大型模型的成本会更高。
此前也有人提出质疑,对大型模型支持商的运营成本和营运收益做了简单的计算,每天8张H100显卡运营节点的成本约为1000美元,每天可以提供2600万token的支持,但按Llama 405B每一百万token 3美元的价格,怎么算都是亏本的,无法盈利的大型模型不会被市场抛弃吗?
贾扬清表示,哎你说这个我就不困了,我熟我来说:)
贾扬清认为,虽然每个请求大约每秒输出30个token,但通过批量处理(同时处理多个请求)可以显著提高总吞吐量,可以达到比单个请求高出10倍或更高的吞吐量。
同时他还指出,每秒大约30个token指的是输出token,大模型对于输入token的处理速度更快,这也增加了处理的总token数,大模型通常对输入和输出分别计费,也正是这个道理。
在后续的另一个回复,贾扬清做了更详细的量化计算:
批量输出速度:单并发405b推理通常有每秒30个token的输出速度。合理的并发可以使总吞吐量提高10倍,达到每秒300个token的输出吞吐量。
输入token:输入token也被计费,通常输入token的数量远大于输出token。一个常见的聊天机器人应用可能有2048个输入token和128个输出token。假设输入输出token比率为10:1,那么每秒300个输出token的处理量相当于每秒3000个输入token。
价格:每天总共处理285,120,000个token,按当前Lepton价格每百万token2.8美元计算,收入为798.34美元。
机器成本:以lambda按需价格为基准,每张H100卡每小时3.49美元,8张H100卡一天的成本为670.08美元。
收入798.34美元,成本670.08美元,因此通过整合多种工艺方法,在合理流量下(像Lepton这样的大模型工艺支持商)是可能盈利的。
当然,这只是一个简单的推算,实际的盈利还会受到流量稳定性、计费方式、按需使用GPU的机器成本控制、解码、提示缓存以及其他因素的作用。
但某种程度上说,类似深度学习时代对CNN的不断优化,在大模型时代,也需要工艺人员对于模型进行种种优化,来保证性能提高的同时不断降低成本,这正是贾扬清看好的创业路线。
我们不妨再多讨论一下,对于贾扬清这样的AI Infra创业者,模型大小的潮流变化对他的商业模式有什么作用?
这个问题,要分不同情况分析。
如果模型参数量越大,提供模型支持的门槛越高(参考Llama 405B),其客单价自然也就越大;
另一方面,由于很多小模型实际是在大模型的基础上蒸馏而得到,模型小了,所需的计算资源并没有等幅度减少;
由于较小的模型更容易部署在不同的设备和平台上,这可能会带来应用场景的增加,虽然客单价可能降低,但在需求数量上的增加反而可能使得总收入增加;
对于贾扬清来说,META的开源路线使得贾扬清的支持对象扩大,因此开源对他来说更有利。
看来不管未来模型规模怎么不变化,贾扬清都有机会凭借工艺升级稳坐钓鱼台。这有点像之前的中国股市,不管什么消息,都是“利好茅台”啊。
这恐怕就是贾扬清最近在推特上为什么这么活跃发表看法的原因?你看好贾扬清这种AI Infra的创业路线吗?雷峰网雷峰网(公众号:雷峰网)
雷峰网原创文章,未经授权禁止转载。详情见转载须知。
原创话剧《北去·南归》在京首演:简洁样貌与朴素情感“在场”大放异彩2025-07-12 11:36
受台风“丹娜丝”作用,福建江西部分旅客列车停运2025-07-12 11:29
《七月的一天》正式开机 沈月陈昊森携手勇闯漫画世界2025-07-12 11:06
推特热帖:k1.5 很牛,因为借鉴了 UCLA 与 CMU 合作团队的这项技术2025-07-12 10:57
周杰伦入驻抖音取名周同学,平台否认9位数签约费2025-07-12 10:38
外交部回应特朗普宣布对14国加征关税2025-07-12 10:24
破解创作密码,解码市场趋势,这场研讨共探精品创作新路径2025-07-12 09:57
Pokee.ai 朱哲清:用 RL 搭建智能体的「骨骼与神经」2025-07-12 09:49
四天六轮谈不拢?加沙停火谈判卡在这三件事2025-07-12 09:49
福州:明天全市停止所有教育教学活动2025-07-12 09:42
商务部:已部署开展打击战略矿产走私出口专项行动2025-07-12 11:20
哥大最新调研:多款 AI 搜索引用错误率高达 60%,付费版本错误率更高2025-07-12 11:15
独臂警察VS五人劫匪团!电影《插翅难逃》定档7月5日2025-07-12 11:10
微软人工智能公开课概览2025-07-12 10:34
《遮天》短剧正式开播!掌阅科技引领AI与真人实拍融合创作方向2025-07-12 10:12
24小时两见特朗普 以色列总理只为一件事2025-07-12 10:10
RL 是推理神器?清华上交大最新研究指出:RL 让大模型更会“套公式”、却不会真推理2025-07-12 09:32
24小时两见特朗普 以色列总理只为一件事2025-07-12 09:27
突发!俄罗斯发动大规模攻击2025-07-12 09:23
三大模型巨头比拼思考“幻觉”:DeepSeek 不敌 ChatGPT,Gemini 用词最少2025-07-12 09:17