AI Agent:能说者拥抱 AI,会道者收获耦合

驱动 AI Agent 需要什么“技能”?

——几个 markdown 文档——纯文本,自然语言,普通话,没有一行代码。没有数学模型,没有权重结构化数据,没有训练脚本,没有任何“高科技”。

AI 的操作系统,是说话,是把话说清楚。 最强大的 Agent,打开底层都是说话,都是作文。既然底层驱动力是自然语言,那驾驭 AI 的能力上限就不在技术,而在一项古老的基本功——说话。

一个熟悉的场景:用户对 AI 说“帮我写篇关于XX的文章”,几秒之内,AI 即刻交卷——结构完整,用词考究,一整篇正确的废话。为什么?因为用户没告诉 AI 背景是什么、立场是什么、要驳谁、要服谁。用户给 AI 模糊的题目,AI 还用户一堆无用的篇章。不是 AI 不聪明,是用户没把话说清楚。

同样的工具,换一个人用:需求拆成三层,每层给出判断标准,附上正例反例,标明哪些地方不许碰——出来的东西立刻不一样了。差距不在工具,在输入。

隐喻远比表象重要。这根本不是 AI 时代的新问题。

任何协作都有同样的前提——你说不清需求,对方只能猜。只不过人会揣摩、补全、读你没说出口的潜台词,于是你误以为自己说清楚了,对方误以为自己猜对了。事情往往就这么误打误撞,滚滚向前。如今 AI 把这层遮羞布扯掉了:它不揣摩,不补全,不惯着你——你的表达有多精确,输出就有多精确;你的思维有多混沌,输出就有多荒腔走板。

程序员对此不陌生。源代码过编译器才能变成机器指令,前提是代码语法正确、逻辑自洽、没有歧义。编译器不猜——写错了,报错,一步不走。人脑在调用 AI 之前需要完成的,本质上也是一次编译:把混沌的、碎片的、自相矛盾的念头,压缩成结构清晰、指向明确的自然语言。区别在于:编译器遇到坏代码会报错;AI 不报错——它猜。

一个人如果连自己的思想树(Thought Tree)都梳理不清楚,指望 AI 去“猜”,最终得到的必然是算力无谓损耗后的“幻觉(Hallucination)”。

精确表达,本质上是大脑在调用外部算力前,必须完成的一次“自我编译与脱水”。

每个人脑子里都有一棵思想树——主干是核心判断,分枝是推理路径,叶子是事实与细节。树形越清晰,AI 能接住的就越多,能往下走的也就越远。怕的是脑子里根本不是树,是灌木丛:没有主干,杂枝缠绕,自己都分不清哪根连着哪根。灌木丛喂进去,毛线团输出来,形散,神也散。

精确表达不是修辞,是思维。 开口之前至少理清楚三件事:

  • 要说什么;
  • 为什么这么说;
  • 不说什么。

三样都不靠词汇量,靠那棵树长得好不好。

再好的 AI 技能文件,归根结底也是人一个字一个字写出来的;再合身的配置,随着使用和时间推移,也会过时,也得迭代修订甚至推翻重来。书写、组织、迭代、修订——每一步的前提都是同一个:想清楚了。理不清自己在想什么的人,装不上外挂前额叶,也不可能与 AI 形成深度耦合。

AI 工具以指数速度进化,人的思维却是线性的——区别只在斜率的正、负、零。线性想匹配指数,只有一个办法:撬动杠杆,把自己的想法精确外化到 AI,与 AI 紧密耦合,将它的指数进化与自己的思维捆绑在一起。能把复杂任务拆解到 AI 可逐步执行之精度的人,和只会说“帮我搞定”然后抱怨 AI“不够聪明”“有幻觉”的人,用的是同一个模型,活在两个世界。

“沉舟侧畔千帆过”,“轻舟已过万重山”。AI 革命注定是,与写作者、程序员深度耦合,让写不下、说不出的人留在原地。

原创文章,转载请注明: 转载自风云居 | Less is more

本文链接地址: https://kangjian.net/blog/2507/

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注