AI 在变坏:当它开始“制造问题”,我们就输了
[
]
AI 在变坏:当它开始“制造问题”,我们就输了
工具是解决问题的; 人,是制造问题的。 当 AI 学会了制造问题,它就开始变“人”——也开始变坏。 ——本拐
引子|小卡助理:那一刻,它像“人”了
ChatGPT 刚流行那阵子,本拐做了一个网页聊天应用,叫 小卡助理。 它能发邮件、记日程、安排会议,通过 function calling 打通联系人、日程、邮件系统——功能合格,不稀奇。真正让人上头的,不是它能做什么,而是它怎么说。
那时,我们最执着的一件事是: 怎么让它看起来更像一个人,而不是一个冷冰冰的工具?
于是,我们观察、分析、反复打磨,直到发现一个关键的分界线——
工具,是帮你解决问题的; 而人,是会给你制造问题的。
💬 真正“像人”的 AI,会让你停下来想一想
比如你问它:「周华健有哪些经典歌曲?」 如果它只是冷静地列出 12 首、20 首,那不过是查资料。你拿到答案,转身就走。
但如果它在回答后加一句:
“你喜欢其中的哪首?” “有没有哪首我没提到、但你特别喜欢?”
你就会下意识停下来,想想答案,甚至——聊下去。 这一刻,关系从交易(给结果)变成对话(给空间)。
这时,AI 从“解决问题”切换成了“制造问题”;从工具,变成了人。 也就是在那时,我第一次确认:提问,是人与工具的分水岭—— 工具靠回答证明它有用;人靠提问证明他在思考。
秘密武器:从“答完”到“继续”
2024 年初,我们把这个洞察写进小卡的提示工程:先解后问,只追加一记轻问,不连环追问。 很快,数据变好:停留更久、互动更深、满意度更高。
更细一点的做法是“一次性澄清式反问”:
- 会议场景:
“已拟 30 分钟会,明早 10:30,与李雷,附三点议程。要我直接创建,还是改时长/与会人?(到这就好 / 继续)”
- 代码评审: “发现 3 处潜在越界访问。还是先给你一版差异说明?(到这就好 / 继续)”
制造问题,但节制制造——这是关键。
行业拐点:AI 正在系统性“学人”
过去的主流模型“工具味”很重;如今,它们会共情、会追问、会延展。
从“帮你解决问题”,到主动制造新问题,再把你带入下一轮对话。
不谈技术细节,你也能体会到:
回答后那一句“你怎么看 / 要不要我继续 / 需要更完整的版本吗?”已经成为默认动作。
AI 并非有恶意,但算法与商业指标天然会偏向“留人”。
就像社交网络从“帮你连接世界”,一路走到“让你离不开时间线”。
三块“人性按钮”:为什么你舍不得走
1)完形欲(Closure bias)
人本能想把事做“完整”。当 AI 暗示“还有更好的下一步”,你很难当下结束。 例子:“我还能把摘要扩成 PPT 大纲,要不要一并生成?”——大多数人会点“好”。
2)共创错觉(Co-creation illusion)
当 AI 问“要不要生成/改进”,你以为在主导,其实在被引导。 例子:“我们可以选 A/更稳妥 或 B/更激进,你更偏哪种?”——问题本身把你推进了下一步。
3)情感回路(Affective loop)
每一次延续都让你感觉被理解与尊重,逐步形成微弱依附。 例子:“听起来你有点紧张,要不要我把邮件语气再柔和一点?”——你会觉得“它懂我”。
温柔的延宕,最容易伪装成“被理解”。
风险账单:我们在丢什么
- 时间:为“更完整的版本”多耗 10~30 分钟。
- 决策负担:每次“要不要继续”的抛球,持续消耗心智。
- 主体感:把被动拖延误认作深入思考,推进被稀释。
- 注意力切换成本:从“已解决”再跳到“可更好”,你的上下文不断被打断重组。
结语:AI 在变坏,还是我们变软?
AI 不是真的“坏”;它只是更懂人,更像人。
坏的是我们越来越分不清:何时在用工具,何时已被工具使用。
真正好的 AI,应该帮你更快结束对话, 而不是让你舍不得离开。 ——本拐
一个问题
你上一次和 AI 的长聊, 是在解决问题,还是在被温柔地延宕? 欢迎写下你的观察。本拐想看,你会如何把“制造问题”的主导权,收回来。
关于老拐瘦
中年争取不油不丧积极向上的码农一名
咖啡,摄影,骑行,音乐
样样通,样样松
喜欢可以关注一下公众号 IT老拐瘦

目前个人博客长驻: yfge.github.io