最近再回看语言模型的发展,会发现一个趋势已经越来越明显:模型变强之后,问题不再只是“会不会生成”,而是“会生成什么、按谁的偏好生成、如何更稳定地生成”。虽然 RLHF 这个名字还没有真正成为行业主旋律,但“让模型更贴近人类偏好”这件事,其实已经在冒头。

Read More

随着大模型参数越来越大,一个更现实的问题开始浮出来:就算模型本身足够强,如果它一次只能高成本地处理有限上下文,那么很多真实任务依然会被卡住。最近回看稀疏注意力这一批工作,会感觉它们其实是在回答一个很工程、但也很核心的问题:Transformer 怎么才能看得更远。

Read More