与AI一起成长003 —— 我们很可能正在见证新的摩尔定律

最近做产品的时候有一个感触:不要着急基于现有的AI做很复杂的应用。随着大语言模型的快速迭代,在现有局限下为了产品功能而做的很多定制开发很快就会失效。在现在这个时间点做AI应用,必须对技术的发展有一定前瞻的预判,假设AI的能力还会10倍增长的前提下,看看哪些客户问题能够被解决。着眼于解决问题的最终产品形态打造产品,并在这个过程中见证AI底层技术的发展,才有可能在AI时代更长时间地获得产品优势。这篇文章想谈谈最近对于打造AI应用的一些最新想法。

2024年大语言模型的进展

最近OpenAI发布了O1模型的正式版,我在第一时间用它来写了一篇产品设计文档,相当惊艳,给研发同事讲解讨论方案的会议上几乎没有改动几处细节就通过了这篇长达3000多字的设计稿。而我写这篇文档只是用了200字给AI简单介绍了我的设计思路,并且只通过3轮问答就得到了终稿。这种写作效率在以前是不可想象的,并且O1最让我惊叹的是它在设计文档中对于研发实现细节的讨论,已经基本做到了研发照着实现就能把代码写出来的地步。我同时对比了国内外多个最新的大语言模型,没有哪个模型可以达到同样的效果。

这样的惊叹在2024年这一年间发生了很多次:GPT-4-Omni的速度提升、Claude 3.5 Sonnet在编程领域的惊艳、还有这次O1模型在推理阶段打开了新的Scaling Law的大门。这样的进步速度已经不能简单的用摩尔定律来做类比了。

基于大语言模型,哪些技术长期有效

在这样的技术进步速度面前,年初时打造AI应用的很多技术问题,到了年底甚至已经变成了直接使用大语言模型轻易就可以完成的事。我们不禁要问,在AI时代,哪些技术是长期可积累并且依然有价值的呢?

Prompt Engineering?我一度非常看好在Prompt打磨上下功夫,认为这是AI时代的编程语言,但是在O1正式版推出后我有些动摇了,因为只需要很简单的Prompt,AI可以自主地做出很复杂的设计。

模型精调?这个领域我非常不看好,一则是精调模型在当下依然非常费事,并且最重要的是,精调的结果在新模型诞生后,没有办法累积复用。OpenAI每发布一款新模型,总要基于新模型重新做微调。

RAG?目前相对看好,因为随着模型变的越来越强大,RAG方案本身不需要做任何调整就可以享受到技术进步带来的结果提升。当然RAG技术的护城河本质上是积累的数据,累积的高质量数据越多,越排他,这个应用的价值就越高。

总结起来,我目前对AI领域的任何技术都不觉得其会有太持久的竞争壁垒,反而高质量数据应该是所有AI应用抢占的高地。

坚持自己相信对的产品理念

除了数据之外,我们如何打造新一代的人机交互界面也会成为产品之间重大的差异点。

如果相信Prompt就是AI时代的变成语言,而大语言模型就是AI时代的CPU。那就应该坚定地打造基于Language User Interface的应用。克制自己想要在应用中增加各种定制流程或传统UI交互方式的冲动,坚持用自然语言本身来触发所有的系统行为。这样当大语言模型的能力成倍增长时,你会看到产品的能力也随之放大。

当然我并不想现在就下结论LUI就是下一代的人机交互界面,只是想提醒自己一定要不断站在这个高度上思考问题,给产品做减法。

传统的给人使用的应用要如何变革?是彻底演变为AI使用的应用为主?亦或是AI依旧只是人的副驾驶,AI能力应该向人类使用的应用交互形式靠拢。

本文仅仅简单地记录下自己最近的一些思考。AI世界发展的速度太快,也许明年再来回看,我的想法会完全不同。

Written on April 5, 2025