“龙虾”挥钳,算力吃紧

发布时间:2026-04-02 10:51:47
来源: 科技日报
阅读量: 287

      “龙虾”挥舞的双钳下,是一个深不见底的算力黑洞。

  有机构算了一笔账:相比传统聊天机器人,智能体的Token(词元)消耗动辄放大数十倍,一个稍微复杂一点的任务,背后吃掉的算力,甚至可能是普通对话的百倍、千倍。有科技博主实测,如果真把“龙虾”当成生产工具放开用,一周下来,费用接近万元。

  数据是最直观的注脚。“养虾”火起来之后,模型调用量极速攀升。全球API聚合平台OpenRouter的数据显示:3月16日至22日,全球大模型调用量已经达到20.4万亿Token,一周涨了两成多。其中,中国大模型的周调用量涨幅更是超过五成,并且已经连续第三周超过美国。当周全球调用量排名前四的模型,也全部是“中国造”。

  国家数据局公布的数据显示,今年3月,中国日均Token调用量已突破140万亿,两年增长了上千倍。

  在不少业内人士看来,这样的增长既令人兴奋,也暗含隐忧。

  3月27日中关村论坛年会的一场AI主题论坛上,算力缺口几乎成了绕不开的话题。“OpenClaw带来算力需求的暴增。”无问芯穹CEO夏立雪观察到,“上次见到这样的增速,还是当年3G手机刚普及,手机流量不够用的时候。以后我们的手机里可能会有两张卡,一张是SIM卡,一张就是‘Token卡’。”

  问题在于,需求的曲线已经陡峭起来,供给却还没完全跟上。“让更聪明的模型执行更复杂的任务,资源消耗极大。如果算力不够,一个问题丢进去半天没有响应,一切体验都是空谈。”智谱华章CEO张鹏说得直白。在他看来,推理需求正以百倍级别爆发,算力很可能成为制约行业发展的核心瓶颈。

  夏立雪认为,当前阶段,与其单纯扩张算力规模,不如把已有资源用到极致。围绕这个目标,他提出,应加快构建更高效、标准化的“Token工厂”,提供持续稳定、规模化的Token服务,使顶尖模型能力高效赋能海量下游场景,尽可能提升每一个Token的转化效率,让算力“花得值”。

  再往远一点看,未来的基础设施本身也会走向智能化,可以自我调度、自主优化,甚至内置Agent来充当“管理者”,让算法与算力系统形成更紧密的深度协同。

  面对“算力焦虑”,也有人重申架构创新的价值。

  小米MiMo大模型负责人罗福莉回忆,两年前,在算力受限的情况下,中国团队依然通过模型架构创新,“逼出”更高效率,比如DeepSeek的探索,“这给了我们勇气和信心”。

  如今,虽然硬件条件已经改善,国产芯片不再受限,但这种对更低推理成本、更高算力效率的探索,依然会在智能体时代成为未来竞争的关键。


(责任编辑:于昊阳)

商业观察网-《商业观察》杂志社官网版权与免责声明:

① 凡本网注明“来源:商业观察网或《商业观察》杂志”的所有作品,版权均属于商业观察网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:商业观察网”。违反上述声明者,本网将追究其相关法律责任。

② 凡本网注明“来源:XXX(非商业观察网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

③ 如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。