Skill 自迭代:我让 AI 写知乎小说,它自己学会了写爆款
先说个数据:本月我的知乎盐选小说给我赚了六块多。
别笑。这六块多的背后有个我觉得挺可怕的东西。
事情的起因很简单。我装了 OpenClaw(龙虾)之后,第二天就写了一个 skill 让它到知乎上去写故事。女频反转短篇,就那种盐选付费故事。
为什么写小说?我会写小说吗?我不会。我能判断一个短篇小说写得好不好?说实话也不太行。但我知道什么是 AI 味——那种一看就是机器生成的,句式工整得像高考范文的东西。
所以最开始我只干了一件事:在 skill 里写了一大堆约束,告诉它哪些句式不能用,不准出现”不是A而是B”,不准”值得一提的是”,不准用那些一看就 AI 的套话。就这样让它写了几天。
写出来的东西嘛,凑合看。没有明显的 AI 味了,但也说不上多好。
然后我做了一个我觉得比较骚的操作。
我让它每天晚上定期去看自己发过的所有文章的数据——阅读量、点赞、收藏这些。根据数据去分析哪篇写得好哪篇写得烂,总结出一些规律,然后把这些经验回写到写故事的那个 skill 文件里。
你听懂了吗?它不光在写故事,它还在每天晚上复盘自己写的故事,然后修改自己写故事的方法。
我设好这个闭环之后就基本不管了。每天龙虾自动给我发三到五篇文章,都是蹭着热点写的。而那个 skill 文件,在我完全不知情的情况下,一直在反复迭代。
我有天突然想起来去看了一眼那个 skill,吓了一跳——里面已经被改得面目全非了。它自己加了一堆我从来没写过的规则,什么”开头第一段必须有悬念”,什么”反转要放在全文60%的位置”,什么”标题里带情感冲突词的阅读量高30%”。这些东西我没教它。是它自己从数据里摸出来的。
到现在已经出了三四个爆款了,每篇五六千阅读。对知乎盐选来说这个量算不错的了。比我自己写的知识类回答阅读量高多了。
同样的逻辑我用在了知乎知识回答上。
流程也很类似:让龙虾每天根据我知识库里的内容,自动去回答一个 AI 相关的问题。回答完了去看这个回答的数据反馈,如果数据好,把这个回答的思路和结构记下来存到知识库里;如果不好,分析为什么不好,也存下来当反面教材。
这里比较好玩的就是它形成了一个双向闭环——知识库越多,它能回答的问题范围就越大;它回答得越多,知识库的内容也越多。是一个正向飞轮。
我当时跟团队分享这个事的时候,孙老师的反应很有意思。他说这不就是你以前说的那个”设计好激励机制,它会自己迭代”吗?
对。就是这个意思。
我再说一个更直观的例子。
我做了一个网站 agentskill.work,全氛围编程搭建的,整个过程没打开过 IDE。这个网站干的事很简单:每天定期去 ClaudeHub 上捞最热门的 Skill,聚合在一起展示。
那假设我想优化这个网站的 SEO 和用户体验,传统做法是什么?我自己去看 Google Analytics 的数据,分析哪些页面跳出率高,哪些关键词排名差,然后手动改代码。
龙虾时代的做法:把网站代码交给龙虾维护,然后让它定期去看打点平台的数据,分析 SEO 做得好不好、哪些页面需要优化,然后它自己去调整代码。
整个循环里,人类做了什么?设计了这个循环本身。然后就没了。
讲到这儿我说一个我最近一直在琢磨的事。
以前我们理解软件,是分成两部分的:代码和数据。代码对所有用户都一样(你装的微信和我装的微信,代码是同一份),数据是每个人不同的(你的聊天记录和我的不一样)。
龙虾把这个边界给模糊了。
你的 skill 就是你的代码。但每个人的 skill 都不一样,因为它是根据你自己的知识、你自己的需求写的。而且这个代码还会自己变——它根据运行产生的数据去修改自己。
代码变成了一种流动的资产。它跟你的数据混在一起了。
你想想这意味着什么?以前我们说”软件吞噬世界”,软件是静态的——开发者写好了,用户拿来用。现在 skill 这种形态下,软件是活的。它会根据你的使用情况、根据它产生的数据反馈,自己进化。
我现在比较热衷的就是去想:手里还有哪些已有的 skill 可以串起来做成循环?你做成循环之后,相当于你就可以在完全不管的情况下,让 skill 自己鞭策自己。
当然我得泼点冷水。
六块多的收入肯定覆盖不了我的 token 成本。龙虾跑一天下来烧的 token 不少,尤其是每天还要做数据分析和 skill 回写,这些都在消耗。从纯经济角度看这事目前是亏的。
但这不是重点。重点是这个模式跑通了。
如果你的 skill 能持续产出内容,而这些内容能产生收入(不管多少),同时 skill 自身还在不断优化以产生更好的内容——这个飞轮一旦转起来,它的边际成本是下降的,而产出质量是上升的。
剩下的就是时间问题了。
反正我现在每天睡前都会去看一眼我的 skill 文件又被改成什么样了。有种养了个什么东西看它长大的感觉。说不上是欣慰还是恐惧。也许两者都有吧。