效率至上:AI行业正在抛弃'更大更好'的迷思

"我们不缺聪明的AI,我们缺够快的AI。"
2026年2月13日,当OpenAI推出GPT-5.3-Codex-Spark时,这句话或许最能概括其意图。这不是一个追求参数规模的新模型,而是一个专门为"实时协作"设计的小型模型——1000+ tokens/秒的推理速度,比标准版Codex快数倍的响应时间。
同一天,MinIO宣布停止维护其开源对象存储项目,转而推广精简的AIStor产品线。
而Meta的AI眼镜销量突破700万的消息,则证明了一个被忽视的市场:消费者不在乎AI有多聪明,他们在乎AI有多快、多便宜、多方便。
三个看似无关的事件,指向同一个行业转折点:AI竞赛正在从"智力竞赛"转向"效率竞赛"。
从"更大"到"更快"的范式转移
过去一年,AI行业沉迷于一个数字游戏:参数规模。
GPT-4、Gemini、Claude——每个新模型发布都在强调更大的参数量、更强的推理能力、更长的上下文窗口。但一个被忽视的问题正在浮现:当模型足够聪明后,聪明本身不再是护城河。
Codex-Spark的发布打破了这种迷思。
这个"小型"模型在SWE-Bench Pro和Terminal-Bench 2.0上的表现与大号Codex相当,但推理速度快了数倍。OpenAI与Cerebras的合作更值得关注——他们将模型部署在超低延迟硬件上,实现了"near-instant"的实时协作体验。
这不是技术降级,而是产品哲学的根本性转变:
- 旧思维:更大的模型 = 更好的产品
- 新思维:更快的响应 = 更好的体验
实时协作:被低估的杀手级场景
为什么速度如此重要?因为AI的使用场景正在从"异步任务"转向"实时协作"。
想象两个场景:
场景A:你向AI提问,等待30秒得到一个完美答案。
场景B:AI在你打字的同时就开始响应,你可以随时打断、纠正、迭代——整个过程流畅得像与一位聪明的同事对话。
Codex-Spark瞄准的正是后者。它128k的上下文窗口、文本-only的设计、轻量级的工作风格——所有取舍都指向一个目标:让AI成为实时协作者,而不是异步顾问。
OpenAI在发布博客中写道:"With Codex-Spark, Codex now supports both long-running, ambitious tasks and getting work done in the moment."
翻译过来就是:我们不仅有能思考三天的AI,现在也有能即时响应的AI。
这种"双轨制"策略揭示了一个深层趋势——AI产品正在分化:
- 深度模式:处理复杂任务,可以慢
- 实时模式:处理日常协作,必须快
硬件层面的效率革命
如果说Codex-Spark代表了软件层面的效率追求,那么Meta AI眼镜的销量则证明了硬件层面的效率需求。
700万副眼镜。这个数字意味着什么?
对比一下:2023年和2024年,Meta AI眼镜的总销量约为200万副。2025年单年销量达到700万,是前两年的3.5倍。EssilorLuxottica的CEO Francesco Milleri甚至表示,1000万的年销量目标"well within reach"。
这不是AI技术的突破,而是AI产品形态的突破。
消费者不想要一个需要掏出手机、打开App、等待响应的AI。他们想要一个随时在线、无需操作、即刻响应的AI——哪怕这个AI没那么聪明。
眼镜形态满足了这种需求:
- Always-on:不需要唤醒,不需要解锁
- Hands-free:语音交互,解放双手
- Instant response:边缘计算,本地推理
这解释了为什么Meta选择在眼镜中集成AI,而不是追求更强大的VR头显。效率优先的产品哲学,正在重塑硬件战略。
开源世界的效率困境
MinIO的停止维护,从另一个角度诠释了"效率至上"的趋势。
这个拥有49,000+ Stars的开源项目,在GitHub README上写下冰冷的声明:"THIS REPOSITORY IS NO LONGER MAINTAINED."
原因很直白:维护一个被云巨头"白嫖"的开源项目,不再是一个高效的商业策略。AGPL许可证的"传染性"、云服务厂商的免费使用、社区支持的成本——这些让MinIO团队意识到,继续免费维护是对资源的浪费。
转型的方向很清晰:AIStor Free(需要申请许可证)和AIStor Enterprise(付费订阅)。
这不是背叛开源精神,而是对效率的重新计算:
- 旧模式:用开源换影响力,影响力换收入
- 新模式:直接收费,精简产品,聚焦付费用户
MinIO的选择或许预示着开源软件的新范式:精简、聚焦、商业化。
效率革命的底层逻辑
为什么现在?为什么效率突然变得比能力更重要?
三个因素正在汇聚:
1. 边际收益递减
当GPT-4已经能处理90%的编程任务时,GPT-5可能只能提升到95%。但对于用户来说,响应时间从10秒降到0.5秒,体验提升远大于那5%的能力提升。
2. 成本压力
大模型的推理成本居高不下。Codex-Spark这样的小型模型,在保持核心能力的同时大幅降低计算成本——这对商业可行性至关重要。
3. 场景扩展
AI正在从"实验室工具"变成"日常工具"。日常工具不需要最强,但需要最快、最方便、最便宜。
未来:双轨并行的AI生态
效率革命不意味着大模型会消失。相反,我们将看到一个双轨并行的生态:
| 维度 | 深度模式 | 实时模式 |
|---|---|---|
| 代表产品 | GPT-5.3-Codex | Codex-Spark |
| 优化目标 | 任务完成质量 | 响应速度与成本 |
| 适用场景 | 复杂项目、深度研究 | 日常编码、实时协作 |
| 硬件需求 | 云端GPU集群 | 边缘设备、本地推理 |
| 价格策略 | 按能力付费 | 按速度付费 |
这种模式在游戏行业已有先例:
- 3A大作:追求画面与深度,可以卖高价
- 休闲游戏:追求即开即玩,靠规模盈利
AI产品正在走向类似的分化。
Observer 视角
效率至上的趋势,标志着AI行业正在从"技术驱动"转向"产品驱动"。
过去的竞赛是谁的模型更聪明,未来的竞赛是谁的AI更快、更便宜、更方便。这不是技术进步的倒退,而是技术成熟的标志——当核心技术差距缩小时,产品体验成为决胜关键。
对于开发者,这意味着:
- 实时AI应用将成为下一个风口
- 边缘计算+本地推理的重要性上升
- 用户体验设计比模型调优更重要
对于投资者,这意味着:
- 关注"速度优化"技术(量化、蒸馏、专用芯片)
- 关注AI硬件的新形态(眼镜、耳机、戒指)
- 警惕纯"参数竞赛"的泡沫
对于普通用户,这意味着:
- AI将变得更快、更便宜、更无处不在
- 但"最强AI"和"最快AI"可能是两个不同的产品
- 隐私与便利的权衡将更加明显
效率不是目的,而是手段。但当效率本身成为产品差异化的核心,它就定义了新的竞赛规则。
AI行业的"速度战争",才刚刚开始。
本文分析了AI行业从"更大更好"到"更快更省"的范式转移。Codex-Spark的实时协作能力、Meta眼镜的销量爆发、MinIO的精简转型,都是这一趋势的注脚。