泡泡资讯网

这篇文章有意思,也是我一直在思考的问题。文章做了个思想实验,假如你是一个导师,带

这篇文章有意思,也是我一直在思考的问题。

文章做了个思想实验,假如你是一个导师,带了两个学生,其中一个不用 AI,一个用 AI。

Alice(传统方式):读文献、写代码、反复调试、被错误折磨一年,最后产出一篇论文。这个过程让她真正理解了研究方法,建立了直觉。

Bob(用AI agent):让AI读文献、写代码、修bug、写论文,同样产出一篇论文。但拿走AI后,他什么都不会——这一年"发生在他身上,但没有发生在他体内"。

在外界看来,如果对结果进行量化的话,他俩是一样的。

另外一个更扎心的事实是,这些博士生在毕业几年内会离开学术界。他们交付了同样的东西,至于有没有学到真本事,好像对谁都不重要。

但这样真的对吗?这个制度又真的好吗?

作者引用了 David Hogg 的一段话来反对这种制度:

天体物理学中,人永远是目的,而不是手段。当我们雇佣一名研究生来从事一个项目时,不应该是因为我们需要那个特定的结果。而应该是因为学生将从这项工作中受益。

如果把最关键的理解、判断、试错过程都交给机器,那看上去像是“加速了科学”,其实是把科学里最值得保留的部分抽空了。

回到这个思想实验,现在不止学生们用 AI,业界大佬们也开始用 AI 来产出,但与新手们使用 AI 不同的地方在于,大佬们有经验、从事理论物理几十年了,知道答案应该是什么样子,知道需要哪些交叉验证。知道某个对数项很可疑,因为他们多年来曾多次亲手、费力地计算过类似的项。

AI 的能力不是核心瓶颈,人的监督能力才是。而监督能力,又恰恰来自那些今天最容易被叫做“脏活”“琐事”“低价值工作”的东西。

如果换成是新手,论文错在哪儿都看不出来,一定会掉坑里。

现在面对 AI ,有两种思潮:

一是“放手让它们去搞”(let-them-cook),即我们将缰绳交给机器,自己成为其产出的策展人;二是“禁止与惩罚”(ban-and-punish),即我们假装还在 2019 年,并起诉任何被发现使用提示词的人。

作者认为这两种做法都不可取。

第一种方式,会让市场上充斥着 AI 生产的论文,人类会被这些内容淹死。第二种方式则侵犯了学术自由,无法执行。

作者说,真正的威胁是一种缓慢而舒适的漂移,让我们逐渐不再理解自己在做什么。

不是戏剧性的崩溃,也不是“天网”降临。

而是一代研究人员,他们能产出结果,却无法产出理解。

他们知道该按哪个按钮,却不知道这些按钮为何存在。他们能让论文通过同行评审,却无法与同事坐在一起,从头到尾解释清楚,为什么他们展开式中的第三项会是那个符号。

作者举了自己同事的例子,来说明更好的使用 AI 的状态应该是:

在让 agent 编写代码之前,就知道代码应该做什么;在让 agent 帮助措辞之前,就知道论文应该说什么。能解释每一个函数、每一个参数、每一个建模选择,因为他们通过多年“慢工出细活”的方式积累了这些知识。如果所有 AI 公司明天都破产了,这些人会变得慢一些,但他们不会迷失。他们是在接受了训练之后才接触这些工具的,而不是用工具取代训练。这个顺序,在这场对话中比任何其他事情都重要。

而现在很多人求助于 ai ,是在走捷径,是在逃避脏活、累活。

最后简单总结:

如果是将 LLM 用作思想的“回音壁”,你自己是建筑师,机器只是字典。思考已经完成,工具只是在执行的最后一公里提供便利。这没问题。

但如果你开始用机器来绕过思考本身,让它来做方法论的选择,让它来决定数据的含义,让它来撰写论证而你只是随声附和时,你就越过了一条极难察觉、也极难回头的界线。

你并没有节省时间,你只是放弃了时间本应赋予你的经验。

链接:ergosphere.blog/posts/the-machines-are-fine