AI研究周报(三十二):AI协作不会取代专家而会重排分工
每当 AI 能力往前走一步,外界最常见的讨论总会回到“谁会被取代”。但如果把视角放在真实工作流里,我越来越觉得,AI 更可能先做的不是直接取代专家,而是重排分工。很多职业的价值不会一下消失,而是从亲手完成每个细节,转向定义目标、判断结果、处理例外和承担责任。
每当 AI 能力往前走一步,外界最常见的讨论总会回到“谁会被取代”。但如果把视角放在真实工作流里,我越来越觉得,AI 更可能先做的不是直接取代专家,而是重排分工。很多职业的价值不会一下消失,而是从亲手完成每个细节,转向定义目标、判断结果、处理例外和承担责任。
过去企业做知识库,常常更关注“有没有沉淀内容”:文档有没有上传、FAQ 有没有归档、流程有没有写清楚。但在模型系统逐渐进入企业之后,我觉得知识库的价值会被重新评估,而且重估的焦点不在存量本身,而在检索层。不是知道多少,而是能不能在对的时刻把对的内容调出来。
很多人刚接触大模型时,会把提示工程理解成一种“写咒语”的技巧:换几个词、调一下语气、加一段约束,输出就不同了。但如果把视角放大一点,我越来越觉得,提示工程迟早不会停留在技巧层,而会演化成产品设计能力。因为真正重要的,不是某一条 prompt 写得巧不巧,而是系统如何稳定地把用户意图转成可控结果。
过去的软件边界,大多是围绕功能页面和固定流程建立的:搜索在一个入口里,编辑在一个界面里,分析在另一个模块里。但当模型开始承担理解、生成、改写和调度任务之后,我越来越觉得,很多传统软件的边界会被“模型接口”重新切开。用户接触的,不再只是一个个功能块,而是一个能根据意图调用不同能力的统一入口。
当模型能力快速提升时,外界很容易把竞争焦点都放在模型本身:谁参数更大,谁效果更强,谁最先接入新能力。但如果这种能力逐渐商品化,真正能长期拉开差距的,很可能不再是“模型是不是最强”,而是“系统是不是更完整”。我越来越觉得,AI 产品的护城河会慢慢从模型能力转向系统能力。
一提到长上下文,大家最直接的理解通常是“模型一次能读更多东西了”。这当然是表层收益,但我觉得更重要的问题不是记住多少,而是如何组织这些信息。上下文窗口变长之后,系统真正被考验的,不是存储能力,而是能不能把大量信息按任务需要重新排序、筛选和调用。
如果要问哪些行业软件最早会被模型能力深度重塑,我会把开发者工具排在很前面。原因不复杂:开发工作天然是文本密集、结构清晰、反馈快速的。代码、文档、报错、命令行输出,本身就构成了模型非常适合处理的一类环境,所以开发者工具很可能成为第一批被“模型原生化”的软件形态。
过去一段时间,大家讨论模型竞争力时,往往会先看预训练规模:参数有多大,语料有多少,训练跑了多久。但如果模型逐渐进入真实业务,我觉得长期优势未必只来自那一次超大规模训练,而会越来越多地来自后续的数据飞轮。谁能持续拿到高质量反馈、形成更新闭环,谁的系统就更容易越用越强。
AI 研究里,排行榜一直有很强的吸引力。一个新模型出来,大家首先关心的是在某个 benchmark 上高了几个点。但如果把目光放到真正的应用场景,会发现一个越来越明显的问题:排行榜给出的往往只是局部信号,而不是完整任务结果。评测真正要回答的,不只是“模型分数多高”,而是“这套系统能不能把事情做完”。
如果说闭源大模型代表了能力边界,那么开源模型更像是在重写实验节奏。很多团队真正需要的,不一定是拿到最强模型的访问权,而是能否快速试验、快速改造、快速验证。只要开源模型的质量跨过某个门槛,它带来的最大价值就不只是“便宜”,而是把实验速度重新拉回到团队自己手里。